赞
踩
写在前面:
首先感谢兄弟们的订阅,让我有创作的动力,在创作过程我会尽最大能力,保证作品的质量,如果有问题,可以私信我,让我们携手共进,共创辉煌。
路虽远,行则将至;事虽难,做则必成。只要有愚公移山的志气、滴水穿石的毅力,脚踏实地,埋头苦干,积跬步以至千里,就一定能够把宏伟目标变为美好现实。
历史文章回顾:
灰狼优化算法:【智能优化算法】灰狼优化算法【附python实现代码】
白鲸优化算法:【智能优化算法】白鲸优化算法【附python实现代码】
【智能优化算法】粒子群优化KNN分类算法【附python实现代码】
【智能优化算法】粒子群优化随机森林分类算法【附python实现代码】
【智能优化算法】粒子群优化LightGBM分类算法【附python实现代码】
【模型参数优化】随机搜索对随机森林分类模型进行参数寻优【附python实现代码】
【模型参数优化】网格搜索对随机森林分类模型进行参数寻优【附python实现代码】
【模型参数优化】网格搜索对KNN分类模型进行参数寻优【附python实现代码】
【模型参数优化】网格搜索对XGBoost分类模型进行参数寻优【附python实现代码】
【模型参数优化】网格搜索对GBDT分类模型进行参数寻优【附python实现代码】
【模型参数优化】网格搜索对SVM分类模型进行参数寻优【附python实现代码】
【模型参数优化】随机搜索对SVM分类模型进行参数寻优【附python实现代码】
1995年,受到鸟群觅食行为的规律性启发,James Kennedy和Russell Eberhart建立了一个简化算法模型,经过多年改进最终形成了粒子群优化算法(Particle Swarm Optimization, PSO) ,也可称为粒子群算法。
粒子群算法具有收敛速度快、参数少、算法简单易实现的优点(对高维度优化问题,比遗传算法更快收敛于最优解),但是也存在陷入局部最优解的问题,因此依赖于良好的初始化。
粒子群算法的思想源于对鸟群觅食行为的研究,鸟群通过集体的信息共享使群体找到最优的目的地。如下图,设想这样一个场景:鸟群在森林中随机搜索食物,它们想要找到食物量最多的位置。但是所有的鸟都不知道食物具体在哪个位置,只能感受到食物大概在哪个方向。每只鸟沿着自己判定的方向进行搜索,并在搜索的过程中记录自己曾经找到过食物且量最多的位置,同时所有的鸟都共享自己每一次发现食物的位置以及食物的量,这样鸟群就知道当前在哪个位置食物的量最多。在搜索的过程中每只鸟都会根据自己记忆中食物量最多的位置和当前鸟群记录的食物量最多的位置调整自己接下来搜索的方向。鸟群经过一段时间的搜索后就可以找到森林中哪个位置的食物量最多(全局最优解)。
将鸟群觅食行为和算法原理对应,如下表所示:
鸟群觅食 | 粒子群算法 |
---|---|
鸟 | 粒子 |
森林 | 求解空间 |
食物的量 | 目标函数值(适应值) |
每只鸟所处的位置 | 空间中的一个解(粒子位置) |
食物量最多的位置 | 全局最优解 |
表述上叫速度,实际上就是粒子下一步迭代移动的距离和方向,也就是一个位置向量。
粒子下一步迭代的移动方向 = 惯性方向 + 个体最优方向 + 群体最优方向
上一步的位置 + 下一步的速度
一个正整数,推荐取值范围:[20,1000],简单问题一般取20-40,较难或特定类别的问题可以取100-200。较小的种群规模容易陷入局部最优;较大的种群规模可以提高收敛性,更快找到全局最优解,但是相应地每次迭代的计算量也会增大;当种群规模增大至一定水平时,再增大将不再有显著的作用。
粒子搜索的空间维数即为自变量的个数。
推荐取值范围:[50,100],典型取值:60、70、100;这需要在优化的过程中根据实际情况进行调整,迭代次数太小的话解不稳定,太大的话非常耗时,没有必要。
1998年,Yuhui Shi和Russell Eberhart对基本粒子群算法引入了惯性权重(inertia weight),并提出动态调整惯性权重以平衡收敛的全局性和收敛速度,该算法被称为标准PSO算法(本文所介绍)【Shi Y . A Modified Particle Swarm Optimizer[C]// Proc of IEEE Icec Conference. 1998.】。
也称为加速系数或加速因子(这两个称呼更加形象地表达了这两个系数的作用)
即优化目标函数的值,用来评价粒子位置的好坏程度,决定是否更新粒子个体的历史最优位置和群体的历史最优位置,保证粒子朝着最优解的方向搜索。
限制粒子搜索的空间,即自变量的取值范围,对于无约束问题此处可以省略。
为了平衡算法的探索能力与开发能力,需要设定一个合理的速度范围,限制粒子的最大速度 ,即粒子下一步迭代可以移动的最大距离。
Vmax较大时,粒子飞行速度快,探索能力强,但粒子容易飞过最优解;
Vmax较小时,飞行速度慢,开发能力强,但是收敛速度慢,且容易陷入局部最优解;
Vmax一般设为粒子变化范围的10%~20%,可根据实际情况调试,但不能大于粒子(解)的变化范围。
停止准则一般有两种:
粒子群算法优化的结果受很多因素的影响,其中受粒子初始值的影响比较大,而且较难调控。如果粒子初始值是随机初始化的,在不改变任何参数的情况下,多次优化的结果不一定都收敛到一个全局或局部最优解,也可能会得到一个无效解。所以粒子初始化是一个十分重要的步骤,它关系到整个优化过程中优化收敛的速度与方向。如果粒子的初始化范围选择得好的话可以大大缩短优化的收敛时间,也不易陷入局部最优解。需要根据具体的问题进行分析,如果根据经验判断出最优解一定在某个范围内,则就在这个范围内初始化粒子。如果无法确定,则以粒子的取值边界作为初始化范围。
使用scikit-opt库实现PSO
先安装
pip install scikit-opt
# -*- coding: utf-8 -*- """ Created on Sat May 25 09:37:28 2024 @author: 63454 """ def demo_func(x): x1, x2, x3 = x return x1 ** 2 + (x2 - 0.05) ** 2 + x3 ** 2 # %% Do PSO from sko.PSO import PSO pso = PSO(func=demo_func, n_dim=3, pop=40, max_iter=100, lb=[0, -1, 0.5], ub=[1, 1, 1], w=0.8, c1=0.5, c2=0.5) pso.run() print('best_x is ', pso.gbest_x, 'best_y is', pso.gbest_y) # %% Plot the result import matplotlib.pyplot as plt plt.xlabel("iterators", size=11) plt.ylabel("fitness", size=11) plt.plot(pso.gbest_y_hist) # plt.plot(pso.gbest_y_hist, color='b', linewidth=2) plt.show()
https://github.com/TimePickerWang/MachineLearning/blob/master/MachineLearning/OptAlgorithm/PSO.py
https://blog.csdn.net/xyisv/article/details/79058574
https://zhuanlan.zhihu.com/p/346355572?utm_id=0&eqid=b544778f00000f69000000066527b08b
https://github.com/guofei9987/scikit-opt/blob/master/examples/demo_pso.py
https://scikit-opt.github.io/scikit-opt/#/zh/more_sa
https://www.omegaxyz.com/2017/05/04/introductionofpso/
https://zhuanlan.zhihu.com/p/63956652
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。