当前位置:   article > 正文

2023亚太杯数学建模B题思路+模型+代码+论文_亚太地区 数学建模 csdn 苹果

亚太地区 数学建模 csdn 苹果


2023亚太地区数学建模A题思路:开赛后第一时间更新,获取见文末 名片

2023亚太地区数学建模B题思路:开赛后第一时间更新,获取见文末 名片

2023亚太地区数学建模C题思路:开赛后第一时间更新,获取见文末 名片

重要提示:优秀论文的解读十分重要!!!

     初次接触数学建模,所以我们在研读论文的过程中,除了学习他们在解决问题中用到的思维方法、数学知识、分析其优点与不足之外,更看重学习怎样写出一篇优秀的数学建模论文,从而传达出自己的研究思路和研究成果。研读完这篇优秀论文后,我们有如下几点的收获:
1. 大致了解了一篇数学建模论文应该包括哪几个部分;
2. 每个部分应该写些什么,以及怎样写才能更好的吸引别人的眼球;
3. 汲取了这篇优秀论文在写作和处理问题方面的成功之处,以便以后运用于我们的研究之中;
4. 总结了这篇论文的不足之处,提醒我们以后注意不要犯类似的错误。

二、写作内容和技巧
2.1摘要
       摘要是一篇论文能否在众多论文中脱颖而出的关键,好的摘要必须清楚的描述解决问题的方法和显著的表达论文中最重要的结论。这篇论文的摘要简明扼要地指出了处理问题的方法并给出了作答,起到较好的总结全文,理清条理的作用。让读者对以下论述有一个总体印象。不足之处在于他提到用了两种方法对预测雨量的两种方法进行分析,但实际上从后面的主体部分,我们可以看到他只是从题目中提到的两个方面——准确性和公众感受——来分析的,谈不上两个方法。

2.2问题的重述
再次阐明论文所研究的问题具有的实际意义,并醒目的提出了所要解决的问题。

2.3问题的分析
分析问题,简述要解决此问题需要哪些条件和大体的解决途径
优点:条理比较清晰,论述符合逻辑,表达清楚。并给出了一个将经纬度转化为坐
的Matlab图形,将题目中的数据直观的反映在了图形上。
缺点:对于考虑公众感受这一段,叙述稍显简略。

2.4模型的假设及符号说明
一个模型建的好与否,很大程度上取决于其假设做的好不好。过烦的假设接近实际,但不宜或者无法求解,过简的假设对实际的指导意义又不够。这就要求我们能发挥想象力、洞察力和判断力,善于辨别主次,并为了使处理方法简单,尽量使问题简单、均匀化。

将文中会出现的变量、常量先在此说明,便于读者的阅读。这篇论文得符号说明很清楚,也很详细。

2.5模型的建立及求解、
1.问题(1)及其求解
  首先阐明算法,给出或推导出需要用到的计算公式;然后可使用Matlab编程,计算出相应的结果;分析得到的答案,给出相应的结论。
 优点:这篇文章建立的模型很简洁,因而给出的算法也很精炼。他主要采用网格点上的预报数据来预测观测站点的数据,再来和实际测得的数据相比,以预报偏离差率这个量来判定两种方法的劣。在数据很繁琐的情况下,很好的使用了Matlab。
2.问题(2)及其求解
可以参考上述


2.6模型的误差与分析
模型的误差与分析有助于改进模型,并使模型在更多的场合适用。
优点:看到了主要可能出现问题和争议的地方,相当于重新作了个说明,指明了自己方法的可取性;
缺点:对于其他的误差并没有进行分析。考虑还不够周全。

2.7模型的评价及推广
指出自己的模型为什么具有可取性,它的优点。这篇论点的评价很好的概括了它的优点,并提出它的方法精度高,以及提到它使用了很好的数学工具。

数学模型最主要的目的是解决实际问题,一个模型做出来、解决之后,不把它运用到实际之中,就不是成功的。因而模型的推广或者说是模型的应用是建模论文中必不可少的。

2.8参考文献
引用的资料必须指明出处,就是在这儿说明。

  1. #coding=utf-8
  2. #Author:Dodo
  3. #Date:2018-11-15
  4. #Email:lvtengchao@pku.edu.cn
  5. '''
  6. 数据集:Mnist
  7. 训练集数量:60000
  8. 测试集数量:10000
  9. ------------------------------
  10. 运行结果:
  11. 正确率:81.72%(二分类)
  12. 运行时长:78.6s
  13. '''
  14. import numpy as np
  15. import time
  16. def loadData(fileName):
  17. '''
  18. 加载Mnist数据集
  19. :param fileName:要加载的数据集路径
  20. :return: list形式的数据集及标记
  21. '''
  22. print('start to read data')
  23. # 存放数据及标记的list
  24. dataArr = []; labelArr = []
  25. # 打开文件
  26. fr = open(fileName, 'r')
  27. # 将文件按行读取
  28. for line in fr.readlines():
  29. # 对每一行数据按切割福','进行切割,返回字段列表
  30. curLine = line.strip().split(',')
  31. # Mnsit有0-9是个标记,由于是二分类任务,所以将>=5的作为1,<5为-1
  32. if int(curLine[0]) >= 5:
  33. labelArr.append(1)
  34. else:
  35. labelArr.append(-1)
  36. #存放标记
  37. #[int(num) for num in curLine[1:]] -> 遍历每一行中除了以第一哥元素(标记)外将所有元素转换成int类型
  38. #[int(num)/255 for num in curLine[1:]] -> 将所有数据除255归一化(非必须步骤,可以不归一化)
  39. dataArr.append([int(num)/255 for num in curLine[1:]])
  40. #返回data和label
  41. return dataArr, labelArr
  42. def perceptron(dataArr, labelArr, iter=50):
  43. '''
  44. 感知器训练过程
  45. :param dataArr:训练集的数据 (list)
  46. :param labelArr: 训练集的标签(list)
  47. :param iter: 迭代次数,默认50
  48. :return: 训练好的w和b
  49. '''
  50. print('start to trans')
  51. #将数据转换成矩阵形式(在机器学习中因为通常都是向量的运算,转换称矩阵形式方便运算)
  52. #转换后的数据中每一个样本的向量都是横向的
  53. dataMat = np.mat(dataArr)
  54. #将标签转换成矩阵,之后转置(.T为转置)。
  55. #转置是因为在运算中需要单独取label中的某一个元素,如果是1xN的矩阵的话,无法用label[i]的方式读取
  56. #对于只有1xN的label可以不转换成矩阵,直接label[i]即可,这里转换是为了格式上的统一
  57. labelMat = np.mat(labelArr).T
  58. #获取数据矩阵的大小,为m*n
  59. m, n = np.shape(dataMat)
  60. #创建初始权重w,初始值全为0。
  61. #np.shape(dataMat)的返回值为m,n -> np.shape(dataMat)[1])的值即为n,与
  62. #样本长度保持一致
  63. w = np.zeros((1, np.shape(dataMat)[1]))
  64. #初始化偏置b为0
  65. b = 0
  66. #初始化步长,也就是梯度下降过程中的n,控制梯度下降速率
  67. h = 0.0001
  68. #进行iter次迭代计算
  69. for k in range(iter):
  70. #对于每一个样本进行梯度下降
  71. #李航书中在2.3.1开头部分使用的梯度下降,是全部样本都算一遍以后,统一
  72. #进行一次梯度下降
  73. #在2.3.1的后半部分可以看到(例如公式2.6 2.7),求和符号没有了,此时用
  74. #的是随机梯度下降,即计算一个样本就针对该样本进行一次梯度下降。
  75. #两者的差异各有千秋,但较为常用的是随机梯度下降。
  76. for i in range(m):
  77. #获取当前样本的向量
  78. xi = dataMat[i]
  79. #获取当前样本所对应的标签
  80. yi = labelMat[i]
  81. #判断是否是误分类样本
  82. #误分类样本特诊为: -yi(w*xi+b)>=0,详细可参考书中2.2.2小节
  83. #在书的公式中写的是>0,实际上如果=0,说明改点在超平面上,也是不正确的
  84. if -1 * yi * (w * xi.T + b) >= 0:
  85. #对于误分类样本,进行梯度下降,更新w和b
  86. w = w + h * yi * xi
  87. b = b + h * yi
  88. #打印训练进度
  89. print('Round %d:%d training' % (k, iter))
  90. #返回训练完的w、b
  91. return w, b
  92. def test(dataArr, labelArr, w, b):
  93. '''
  94. 测试准确率
  95. :param dataArr:测试集
  96. :param labelArr: 测试集标签
  97. :param w: 训练获得的权重w
  98. :param b: 训练获得的偏置b
  99. :return: 正确率
  100. '''
  101. print('start to test')
  102. #将数据集转换为矩阵形式方便运算
  103. dataMat = np.mat(dataArr)
  104. #将label转换为矩阵并转置,详细信息参考上文perceptron中
  105. #对于这部分的解说
  106. labelMat = np.mat(labelArr).T
  107. #获取测试数据集矩阵的大小
  108. m, n = np.shape(dataMat)
  109. #错误样本数计数
  110. errorCnt = 0
  111. #遍历所有测试样本
  112. for i in range(m):
  113. #获得单个样本向量
  114. xi = dataMat[i]
  115. #获得该样本标记
  116. yi = labelMat[i]
  117. #获得运算结果
  118. result = -1 * yi * (w * xi.T + b)
  119. #如果-yi(w*xi+b)>=0,说明该样本被误分类,错误样本数加一
  120. if result >= 0: errorCnt += 1
  121. #正确率 = 1 - (样本分类错误数 / 样本总数)
  122. accruRate = 1 - (errorCnt / m)
  123. #返回正确率
  124. return accruRate
  125. if __name__ == '__main__':
  126. #获取当前时间
  127. #在文末同样获取当前时间,两时间差即为程序运行时间
  128. start = time.time()
  129. #获取训练集及标签
  130. trainData, trainLabel = loadData('../Mnist/mnist_train.csv')
  131. #获取测试集及标签
  132. testData, testLabel = loadData('../Mnist/mnist_test.csv')
  133. #训练获得权重
  134. w, b = perceptron(trainData, trainLabel, iter = 30)
  135. #进行测试,获得正确率
  136. accruRate = test(testData, testLabel, w, b)
  137. #获取当前时间,作为结束时间
  138. end = time.time()
  139. #显示正确率
  140. print('accuracy rate is:', accruRate)
  141. #显示用时时长
  142. print('time span:', end - start)

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号