粒子群算法 PSO Matlab实现 两种解法

首先给大家推荐一下我老师大神的人工智能教学网站。教学不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵黄段子!点这里可以跳转到网站

粒子群算法(PSO)
用途:可以用于寻求最优解问题
生物机理:鸟群寻找湖泊
在函数中,有很多是无法求出最优解的
在这时,我们会采用软计算方法,而PSO算法,在软计算算法中有重要的地位;
好吧,这个仁者见仁,智者见智

这是一个很有趣的图

还是先看图:

图中的粉红色线画出来的就是我们求的目标函数
然后,我们是打算求最大值的,那个点,就是我们求出来的最大值位置
还是很准的对吧?
一般的话,我们会进行一些处理,转成求最小值(不只是倒数,还有一些简单的处理过程)

代码如下,代码中会有详细的讲解,如有不懂,可以在评论区问

function main()
clc;clear all; close all;
tic;                                    % 程序运行计时
E0 = 0.001;                             % 允许误差
MaxNum = 100;                           % 粒子最大迭代次数
narvs = 1;                              % 目标函数的自变量个数
particlesize = 30;                      % 粒子群规模
c1 = 2;                                 % 个体经验学习因子
c2 = 2;                                 % 社会经验学习因子
w =0.6;                                 % 惯性因子
vmax = 0.8;                             % 粒子的最大飞翔速度
x = -5 + 10 * rand(particlesize, narvs);% 粒子所在的位置 (rand产生的大小为0,1),规模是 粒子群数和参数需求数 设置了x的取值范围[-5,5] 
v = 2*rand(particlesize,narvs);         % 粒子的飞翔速度  生成每个粒子的飞翔速度,由于是只有一个变量,所以速度是一维的
% 用inline定义适应度函数以便将子函数文件与主程序文件放到一起
% 目标函数是:y = 1+(2.1*(1- x + 2*x.^2).*exp(-x.^2 / 2)) # 与Python不同的是,这里必须要写成.*
% .^之类的,因为定义不同
fitness = inline('1/(1+(2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2)))','x'); % 这里求倒数,还在分母上加了个1,确保不会出现分母为0的情况,转为求最小值位置
% inline函数定义可以大大降低程序运行速度
for i= 1:particlesize
    f(i) = fitness(x(i,1));
end 
% 完成了对每一个粒子,在各自位置上的适应值
% 粒子开始学习
personalbest_x=x;         % 用于存储对于每一个粒子最佳经历点的x值
personalbest_faval=f;     % 同时存储对于每一个粒子的最佳经历点的数值,用于更改 
[globalbest_faval,i] = min(personalbest_faval); % min函数返回的第一个是最小值,还有一个就是最小值的下标,这里就是告诉了是在哪个粒子上
globalbest_x = personalbest_x(i,:);   % 这个是必定是全局最优点的位置
k = 1; % 开始迭代计数
while k <= MaxNum   % 当迭代次数达到设定的最大值的时候,就不要再进行迭代了
    for i = 1:particlesize   % 对于每一个粒子
        f(i) = fitness(x(i,1)); % 得到每个粒子的当前位置 在函数上的适应值 
        if f(i) < personalbest_faval(i)   % 如果这个值是小于个人最优解的位置的时候,就更新,我们经过转换,所以只用考虑求最小值的情况
            personalbest_faval(i) = f(i); % 将第i个粒子的个人最优解设置为
            personalbest_x(i,:) = x(i,:); % 同时更改最有地址的位置
        end
    end 
   [globalbest_faval,i] = min(personalbest_faval); 
    globalbest_x = personalbest_x(i,:); % 更新全局 全局信息由个体信息描述组成

    for i = 1:particlesize
        v(i,:) = w*v(i,:) + c1*rand*(personalbest_x(i,:) - x(i,:)) + c2*rand*personalbest_x(i,:); % 由个人和全局的最佳信息数据进行更新移动速度
        % 上面中rand会随机生成一个rand(0,1)然后会随机的降低学习因子的比例
        for j = 1:narvs   % 这个个循环确定了每个自变量上的速度,有没有超过对应的最大值
            if v(i,j) > vmax
                v(i,j) = vmax;
            elseif v(i,j) < -vmax
                v(i,j) = -vmax;
            end
        end 
        x(i,:) = x(i,:) + v(i,:); % 通过速度更新位置
    end
    if abs(globalbest_faval) < E0,break,end         
    k = k + 1;
end
Value1 = 1/globalbest_faval - 1; % 还记得上面做了一个加1,求倒数的操作么?
Value1 = num2str(Value1);
disp(strcat('the maximum value',' = ', Value1)); % 主要是在这进行了展示
Value2 = globalbest_x;    % 得到了全局最优解的位置
Value2 = num2str(Value2);
disp(strcat('the maximum x = ', Value2));

% 绘图
x = -5:0.01:5;
y = 2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2);
plot(x,y,'m--','linewidth',3); % m表示的是粉红色,-是表示的是连续的曲线线
hold on;
plot(globalbest_x, 1/globalbest_faval-1,'kp','linewidth',4);
legend('目标函数','搜索到的最大值');
xlabel('x'); % 给x轴贴标签
ylabel('y'); % 给y轴贴标签
grid on;
end

由于上面给出的例子比较简单(二维的)
所以,我们完全可以用硬计算的方法找到最值(硬计算)
具体代码如下:

x = -5:0.01:5;
y = 2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2);
[v, index_x] = max(y);
disp(v);
% 画图
plot(x,y,'m-','linewidth',3); % m表示的是粉红色,-是表示的是连续的曲线线
hold on;
plot(x(index_x), v,'kp','linewidth',4);
legend('目标函数','搜索到的最大值');
xlabel('x'); % 给x轴贴标签
ylabel('y'); % 给y轴贴标签
grid on;

但是,要清楚的是,如果这个时候是三维,或者是更高维度的时候,这样的方法,可能就没有“粒子群算法”好用了。

由于采用的时候硬计算方法,所以,函数更奇怪的时候,或者就是给出的函数本身就是一个隐函数的时候,可能粒子群算法,就会比较好用一点。

最后,老套路,宣传一波自己的公众号!(求关注哇!)
本人中大一肥宅,欢迎大家关注,请扫下面的二维码(〃’▽’〃)

二维码

如果觉得有帮助的话,可以扫码,赞赏鼓励一下!谢谢!

点这里可以跳转到人工智能网站