深圳幻海软件技术有限公司 欢迎您!

备战数学建模45-粒子群算法优化BP神经网络(攻坚站10)

2023-03-30

BP神经网络主要用于预测和分类,对于大样本的数据,BP神经网络的预测效果较佳,BP神经网络包括输入层、输出层和隐含层三层,通过划分训练集和测试集可以完成模型的训练和预测,由于其简单的结构,可调整的参数多,训练算法也多,而且可操作性好,BP神经网络获得了非常广泛的应用,但是也存在着一些缺陷,例如学习收

BP神经网络主要用于预测和分类,对于大样本的数据,BP神经网络的预测效果较佳,BP神经网络包括输入层、输出层和隐含层三层,通过划分训练集和测试集可以完成模型的训练和预测,由于其简单的结构,可调整的参数多,训练算法也多,而且可操作性好,BP神经网络获得了非常广泛的应用,但是也存在着一些缺陷,例如学习收敛速度太慢、不能保证收敛到全局最小点、网络结构不易确定。另外,网络结构、初始连接权值和阈值的选择对网络训练的影响很大,但是又无法准确获得,针对这些特点可以采用遗传算法或粒子群算法等对神经网络进行优化。
 

目录

一、pso+bp预测2022年勇士和凯尔特人夺冠情况

1.1、数据准备

1.2、粒子群优化BP神经网络流程图

1.3、BP神经网络和粒子群参数设置

1.4、pso+bp的完整MATLAB代码

1.5、预测结果

1.6、小结


一、pso+bp预测2022年勇士和凯尔特人夺冠情况

1.1、数据准备

训练集的输入数据和输出数据,如下一共36*14的数据,前面18行是勇士队的训练数据,其中前13列是输入,最后一列是输出。后面的18行是凯尔特人的训练数据,其中前13列是输入,最后一列是输出.

14列数据,一共13个输入指标和1个输出指标。

输入指标:

1.季后赛球队场均投篮命中率  2.季后赛球队场均3分命中率
3.季后赛球队场均罚篮命中率  4.季后赛球队场均得分
5.季后赛球队场均篮板    6.季后赛球队场均助攻
7.季后赛球队场均抢断    8.季后赛球队场均盖帽
9.季后赛球队场均进攻篮板率   10.季后赛球队场均防守篮板率
11.季后赛球队场均失误率    12.球星数量
13.去年是否进入总决赛

输出指标:是否夺冠


下面8*14的数据分别是勇士和凯尔特人的测试数据,前4行勇士,后四行凯尔特人。

下面2*13的数据是今年勇士和凯尔特人的季后赛数据,用于预测今年的夺冠情况。

1.2、粒子群优化BP神经网络流程图

我们看一下粒子群优化BP神经网路的流程图,本质上就是用粒子群算法确定BP神经网络初始的权值和阈值,适应度函数(目标函数)是BP神经网络的预测的误差,根据适应度函数,粒子群算法寻找最优的位置,进而去初始化最优的BP权值和阈值。

 

1.3、BP神经网络和粒子群参数设置

假设我们构建的Bp神经网络为3层网络,则Bp神经网络中需要优化的参数实际上包含4部分:输入层到隐含层的权值、隐层神经元阈值、隐含层到输出层的权值、输出层阈值。

对于粒子群的目标函数的选取,即适应度函数,我们使用BP神经网络的误差范数来衡量,在当前权值和阈值下,Bp神经网络的预测性能怎么样,这里我们使用误差范数n o r m ( T s i m − T t e s t ) 来表示,范数越小说明预测得越准确,如果范数为0,说明预测得完全准确。

对于粒子群算法,我们需要不停地更新粒子的速度和位置,选取代入适应度函数内最合适的权值和阈值,具体的速度和位置更新公式如下:

1.4、pso+bp的完整MATLAB代码

PSO+bp的代码如下:

  1. %% 基于PSO的Bp神经网络预测2022赛季NBA总冠军
  2. clc;
  3. clear;
  4. tic
  5. close all;
  6. %% 加载神经网络的训练样本 测试样本每列一个样本 输入P 输出T
  7. load('basket.mat')%加载数据
  8. P = trains(:,1:end-1) ;%训练集输入
  9. T = trains(:,end) ;%训练集输出
  10. P_test = tests(:,1:end-1) ;%测试集输入
  11. T_test = tests(:,end) ;%测试集输出
  12. cur_season = pred ;%待预测的数据,今年NBA季后赛数据,第1行为勇士队数据,第2行为凯尔特人队数据
  13. inputnum=size(P,2); %输入层神经元个数
  14. hiddennum=2*inputnum+1; %初始隐层神经元个数
  15. outputnum=size(T,2); %输出层神经元个数
  16. w1num=inputnum*hiddennum; %输入层到隐层的权值个数
  17. w2num=outputnum*hiddennum; %隐层到输出层的权值个数
  18. N=w1num+hiddennum+w2num+outputnum; %待优化的变量的个数
  19. %% 定义粒子群优化算法参数
  20. nVar=N; %变量数目
  21. VarSize=[1,nVar]; %变量矩阵大小
  22. VarMin=-0.5; %变量取值下限
  23. VarMax=0.5; %变量取值上限
  24. MaxIt=200; %最大迭代次数
  25. nPop=40; %种群数目
  26. w=1; %惯性权重
  27. wdamp=0.99; %惯性重量降低系数
  28. c1=1.5; %个体学习系数
  29. c2=2.0; %群体学习系数
  30. VelMax=0.1*(VarMax-VarMin); %速度上限
  31. VelMin=-VelMax; %速度下限
  32. %% 初始化
  33. empty_particle.Position=[];
  34. empty_particle.Cost=[];
  35. empty_particle.Velocity=[];
  36. empty_particle.Best.Position=[];
  37. empty_particle.Best.Cost=[];
  38. particle=repmat(empty_particle,nPop,1);
  39. GlobalBest.Cost=inf;
  40. for i=1:nPop
  41. %初始化位置
  42. particle(i).Position=unifrnd(VarMin,VarMax,VarSize);
  43. %初始化速度
  44. particle(i).Velocity=zeros(VarSize);
  45. %个体评价
  46. particle(i).Cost=BpFunction(particle(i).Position,P,T,hiddennum,P_test,T_test);
  47. %更新个体最优
  48. particle(i).Best.Position=particle(i).Position;
  49. particle(i).Best.Cost=particle(i).Cost;
  50. %更新群体最优
  51. if particle(i).Best.Cost<GlobalBest.Cost
  52. GlobalBest=particle(i).Best;
  53. end
  54. end
  55. BestCost=zeros(MaxIt,1);
  56. %% 主循环
  57. for it=1:MaxIt
  58. for i=1:nPop
  59. %更新速度
  60. particle(i).Velocity = w*particle(i).Velocity ...
  61. +c1*rand(VarSize).*(particle(i).Best.Position-particle(i).Position) ...
  62. +c2*rand(VarSize).*(GlobalBest.Position-particle(i).Position);
  63. %对超出范围的速度进行调整
  64. particle(i).Velocity = max(particle(i).Velocity,VelMin);
  65. particle(i).Velocity = min(particle(i).Velocity,VelMax);
  66. %更新位置
  67. particle(i).Position = particle(i).Position + particle(i).Velocity;
  68. %对超出位置范围的速度进行调整
  69. IsOutside=(particle(i).Position<VarMin | particle(i).Position>VarMax);
  70. particle(i).Velocity(IsOutside)=-particle(i).Velocity(IsOutside);
  71. %对超出范围的位置进行调整
  72. particle(i).Position = max(particle(i).Position,VarMin);
  73. particle(i).Position = min(particle(i).Position,VarMax);
  74. %种群评估
  75. particle(i).Cost=BpFunction(particle(i).Position,P,T,hiddennum,P_test,T_test);
  76. %更新个体最优
  77. if particle(i).Cost<particle(i).Best.Cost
  78. particle(i).Best.Position=particle(i).Position;
  79. particle(i).Best.Cost=particle(i).Cost;
  80. %更新群体最优
  81. if particle(i).Best.Cost<GlobalBest.Cost
  82. GlobalBest=particle(i).Best;
  83. end
  84. end
  85. end
  86. BestCost(it)=GlobalBest.Cost;
  87. disp(['Iteration ' num2str(it) ': Best Cost = ' num2str(BestCost(it))]);
  88. w=w*wdamp;
  89. end
  90. BestSol=GlobalBest;
  91. %% Results
  92. figure;
  93. %plot(BestCost,'LineWidth',2);
  94. semilogy(BestCost,'LineWidth',2);
  95. xlabel('迭代次数')
  96. ylabel('误差的变化')
  97. title('进化过程')
  98. grid on;
  99. fprintf(['最优初始权值和阈值:\n=',num2str(BestSol.Position),'\n最小误差=',num2str(BestSol.Cost),'\n'])
  100. %% 预测今年总冠军概率
  101. cur_test=zeros(size(cur_season,1),1);
  102. [~,bestCur_sim]=BpFunction(BestSol.Position,P,T,hiddennum,cur_season,cur_test);
  103. prob=softmax(bestCur_sim);
  104. disp(['勇士队获得2022年NBA总冠军概率为',num2str(prob(1))]);
  105. disp(['凯尔特人队获得2022年NBA总冠军概率为',num2str(prob(2))]);
  106. toc

BP的函数如下,用于计算误差范数,更新权值和阈值:

  1. %% 输入
  2. % x:一个个体的初始权值和阈值
  3. % P:训练样本输入
  4. % T:训练样本输出
  5. % hiddennum:隐含层神经元数
  6. % P_test:测试样本输入
  7. % T_test:测试样本期望输出
  8. %% 输出
  9. % err:预测样本的预测误差的范数
  10. function [err,T_sim]=BpFunction(x,P,T,hiddennum,P_test,T_test)
  11. inputnum=size(P,2); %输入层神经元个数
  12. outputnum=size(T,2); %输出层神经元个数
  13. %% 数据归一化
  14. [p_train,ps_train]=mapminmax(P',0,1);
  15. p_test=mapminmax('apply',P_test',ps_train);
  16. [t_train,ps_output]=mapminmax(T',0,1);
  17. %% 开始构建BP网络
  18. net=newff(p_train,t_train,hiddennum); %隐含层为hiddennum个神经元
  19. %设定参数网络参数
  20. net.trainParam.epochs=1000;
  21. net.trainParam.goal=1e-3;
  22. net.trainParam.lr=0.01;
  23. net.trainParam.showwindow=false; %高版MATLAB使用 不显示图形框
  24. %% BP神经网络初始权值和阈值
  25. w1num=inputnum*hiddennum; %输入层到隐层的权值个数
  26. w2num=outputnum*hiddennum; %隐含层到输出层的权值个数
  27. W1=x(1:w1num); %初始输入层到隐含层的权值
  28. B1=x(w1num+1:w1num+hiddennum); %隐层神经元阈值
  29. W2=x(w1num+hiddennum+1:w1num+hiddennum+w2num); %隐含层到输出层的权值
  30. B2=x(w1num+hiddennum+w2num+1:w1num+hiddennum+w2num+outputnum); %输出层阈值
  31. net.iw{1,1}=reshape(W1,hiddennum,inputnum); %为神经网络的输入层到隐含层权值赋值
  32. net.lw{2,1}=reshape(W2,outputnum,hiddennum); %为神经网络的隐含层到输出层权值赋值
  33. net.b{1}=reshape(B1,hiddennum,1); %为神经网络的隐层神经元阈值赋值
  34. net.b{2}=reshape(B2,outputnum,1); %为神经网络的输出层阈值赋值
  35. %% 开始训练
  36. net = train(net,p_train,t_train);
  37. %% 测试网络
  38. t_sim = sim(net,p_test);
  39. T_sim1 = mapminmax('reverse',t_sim,ps_output); %反归一化
  40. T_sim=T_sim1';
  41. err=norm(T_sim-T_test); %预测结果与测试结果差的范数,范数越小说明预测得越准确,如果范数为0,说明预测得完全准确
  42. index0= T_sim<0; %找到预测值小于0的索引
  43. index1= T_sim>1; %找到预测值小于1的索引
  44. penalty=1000*abs(sum(T_sim(index0)))+1000*sum(T_sim(index1)-1); %预测值小于0或大于1会有惩罚
  45. err=err+penalty; %总误差
  46. end

1.5、预测结果

通过预测结果可以发现整体来说随着迭代次数的增加,误差不断减少,最终预测出的结果是5-5开,不过勇气夺冠的概率稍微大于凯尔特人。

另外可以对上述代码进行优化,准确的说是对粒子群进行优化,使其在迭代次数内找到相对最好的值,上述用到是线性递减,我们这里用了自适应递减权重+收缩因子法,代码如下,其实优化的效果不明显。

  1. %% 基于PSO的Bp神经网络预测2022赛季NBA总冠军
  2. clc;
  3. clear;
  4. tic
  5. close all;
  6. %% 加载神经网络的训练样本 测试样本每列一个样本 输入P 输出T
  7. load('basket.mat')%加载数据
  8. P = trains(:,1:end-1) ;%训练集输入
  9. T = trains(:,end) ;%训练集输出
  10. P_test = tests(:,1:end-1) ;%测试集输入
  11. T_test = tests(:,end) ;%测试集输出
  12. cur_season = pred ;%待预测的数据,今年NBA季后赛数据,第1行为勇士队数据,第2行为凯尔特人队数据
  13. inputnum=size(P,2); %输入层神经元个数
  14. hiddennum=2*inputnum+1; %初始隐层神经元个数
  15. outputnum=size(T,2); %输出层神经元个数
  16. w1num=inputnum*hiddennum; %输入层到隐层的权值个数
  17. w2num=outputnum*hiddennum; %隐层到输出层的权值个数
  18. N=w1num+hiddennum+w2num+outputnum; %待优化的变量的个数
  19. %% 定义粒子群优化算法参数
  20. nVar=N; %变量数目
  21. VarSize=[1,nVar]; %变量矩阵大小
  22. VarMin=-0.5; %变量取值下限
  23. VarMax=0.5; %变量取值上限
  24. MaxIt=200; %最大迭代次数
  25. nPop=40; %种群数目
  26. w=0.9; %惯性权重
  27. %wdamp=0.99; %惯性重量降低系数
  28. c1=2.05; %个体学习系数
  29. c2=2.05; %群体学习系数
  30. VelMax=0.1*(VarMax-VarMin); %速度上限
  31. VelMin=-VelMax; %速度下限
  32. w_max = 0.9 ;
  33. w_min = 0.4 ;
  34. C = c1+c2;
  35. fai = 2/abs((2-C-sqrt(C^2-4*C))); % 收缩因子
  36. %% 初始化
  37. empty_particle.Position=[];
  38. empty_particle.Cost=[];
  39. empty_particle.Velocity=[];
  40. empty_particle.Best.Position=[];
  41. empty_particle.Best.Cost=[];
  42. particle=repmat(empty_particle,nPop,1);
  43. GlobalBest.Cost=inf;
  44. for i=1:nPop
  45. %初始化位置
  46. particle(i).Position=unifrnd(VarMin,VarMax,VarSize);
  47. %初始化速度
  48. particle(i).Velocity=zeros(VarSize);
  49. %个体评价
  50. particle(i).Cost=BpFunction(particle(i).Position,P,T,hiddennum,P_test,T_test);
  51. %更新个体最优
  52. particle(i).Best.Position=particle(i).Position;
  53. particle(i).Best.Cost=particle(i).Cost;
  54. %更新群体最优
  55. if particle(i).Best.Cost<GlobalBest.Cost
  56. GlobalBest=particle(i).Best;
  57. end
  58. end
  59. BestCost=zeros(MaxIt,1);
  60. %% 主循环
  61. for it=1:MaxIt
  62. for i=1:nPop
  63. %更新速度
  64. particle(i).Velocity = fai * (w*particle(i).Velocity ...
  65. +c1*rand(VarSize).*(particle(i).Best.Position-particle(i).Position) ...
  66. +c2*rand(VarSize).*(GlobalBest.Position-particle(i).Position));
  67. %对超出范围的速度进行调整
  68. particle(i).Velocity = max(particle(i).Velocity,VelMin);
  69. particle(i).Velocity = min(particle(i).Velocity,VelMax);
  70. %更新位置
  71. particle(i).Position = particle(i).Position + particle(i).Velocity;
  72. %对超出位置范围的速度进行调整
  73. IsOutside=(particle(i).Position<VarMin | particle(i).Position>VarMax);
  74. particle(i).Velocity(IsOutside)=-particle(i).Velocity(IsOutside);
  75. %对超出范围的位置进行调整
  76. particle(i).Position = max(particle(i).Position,VarMin);
  77. particle(i).Position = min(particle(i).Position,VarMax);
  78. %种群评估
  79. particle(i).Cost=BpFunction(particle(i).Position,P,T,hiddennum,P_test,T_test);
  80. %更新个体最优
  81. if particle(i).Cost<particle(i).Best.Cost
  82. particle(i).Best.Position=particle(i).Position;
  83. particle(i).Best.Cost=particle(i).Cost;
  84. %更新群体最优
  85. if particle(i).Best.Cost<GlobalBest.Cost
  86. GlobalBest=particle(i).Best;
  87. end
  88. end
  89. end
  90. BestCost(it)=GlobalBest.Cost;
  91. disp(['Iteration ' num2str(it) ': Best Cost = ' num2str(BestCost(it))]);
  92. %自适应权重
  93. f_i=particle(i).Cost; % 取出第i个粒子的适应度
  94. s = 0 ;
  95. f_min = particle(1).Best.Cost ;
  96. for k = 1 : nPop
  97. if f_min > particle(i).Best.Cost
  98. fmin = particle(i).Best.Cost ;
  99. s = s + particle(i).Best.Cost ;
  100. end
  101. end
  102. f_avg = s/nPop; % 计算此时适应度的平均值
  103. if f_i <= f_avg
  104. if f_avg ~= f_min % 如果分母为0,我们就干脆令w=w_min
  105. w = w_min + (w_max - w_min)*(f_i - f_min)/(f_avg - f_min);
  106. else
  107. w = w_min;
  108. end
  109. else
  110. w = w_max;
  111. end
  112. %w=w*wdamp;
  113. end
  114. BestSol=GlobalBest;
  115. %% Results
  116. figure;
  117. %plot(BestCost,'LineWidth',2);
  118. semilogy(BestCost,'LineWidth',2);
  119. xlabel('迭代次数')
  120. ylabel('误差的变化')
  121. title('进化过程')
  122. grid on;
  123. fprintf(['最优初始权值和阈值:\n=',num2str(BestSol.Position),'\n最小误差=',num2str(BestSol.Cost),'\n'])
  124. %% 预测今年总冠军概率
  125. cur_test=zeros(size(cur_season,1),1);
  126. [~,bestCur_sim]=BpFunction(BestSol.Position,P,T,hiddennum,cur_season,cur_test);
  127. prob=softmax(bestCur_sim);
  128. disp(['勇士队获得2022年NBA总冠军概率为',num2str(prob(1))]);
  129. disp(['凯尔特人队获得2022年NBA总冠军概率为',num2str(prob(2))]);
  130. toc

1.6、小结

对于粒子群+bp的算法还有很多需要优化的,特别是对于粒子群的优化方法有很多,比如对权重系数w和学习因子c的优化等,这次主要是讲了一个思想,就是粒子群全局寻优去初始化bp神经网络的初始权值阈值,提高预测准确率。

文章知识点与官方知识档案匹配,可进一步学习相关知识
算法技能树首页概览42508 人正在系统学习中
t>