第18卷第2期
Vol.18No.2
控 制 与 决 策
ControlandDecision
2003年3月
Mar.2003
文章编号:100120920(2003)0220129206
微粒群算法综述
谢晓锋,张文俊,杨之廉
(清华大学微电子学研究所,北京100084)
摘 要:讨论微粒群算法的开发与应用。首先回顾从1995年以来的开发过程,然后根据一些已有的测试结果对其参数设置进行系统地分析,并讨论一些非标准的改进手段,如簇分解、选择方法、邻域算子、无希望重新希望方法等。介绍了一些常用的测试函数,以及与其他演化算法的比较。最后讨论了一些已经开发和在将来有希望的领域中的应用。关键词:微粒群算法;演化计算;人工生命中图分类号:TP301.6 文献标识码:A
Overviewofparticleswarmoptimization
XIEXiao2feng,ZHANGWen2jun,YANGZhi2lian
(InstituteofMicroelectronics,TsinghuaUniversity,Beijing100084,China)
Abstract:Thedevelopmentsandapplicationsrelatedtoparticleswarmoptimization(PSO)arediscussed.Firstly,developmentsintheparticleswarmoptimizationsince1995arereviewed.Then.parametersettingsareanalyzedsystematicallyaccordingtosomeexistedtestingresults
Some
improvementmethods,suchasclusteranalysis,selection,neighborhoodoperator,no2hopere2hopemethod,etc.,arediscussed.SomecommontestfunctionsandthecomparisonsbetweenPSOandothersevolutionaryalgorithmsareintroduced.Finally,applications,bothinthedevelopedareasandthepromisingfutureapplicationareas,arereviewed.
Keywords:Particleswarmoptimization;Evolutionarycomputation;Artificiallife
1 引 言
微粒群算法(PSO)是由Kennedy和Eberhart等1,2于1995年开发的一种演化计算技术,来源于对一个简化社会模型的模拟。其中“群(swarm)”来源于微粒群符合Millonas3在开发应用于人工生命(artificiallife)的模型时所提出的群体智能的5个基本原则。而“微粒(particle)”则是一个折衷的选择,因为既需要将群体中的成员描述为没有质量、没有体积的,同时也需要描述它的速度和加速状态。 由于PSO算法概念简单,实现容易,短短几年时间,PSO算法便获得了很大的发展,并在一些领
(CEC)域得到应用。目前已被“国际演化计算会议”
收稿日期:2001211202;修回日期:2001212206。
列为讨论专题之一。
本文首先介绍PSO算法的标准版本,然后根据
一些测试结果对其参数设置进行讨论,给出一些常用的测试函数,随后讨论一些非标准的改进手段,并给出一些与其他演化算法的比较,以及PSO算法的应用例子。
2 PSO标准版本
PSO算法最初是为了图形化地模拟鸟群优美而不可预测的运动。人们通过对动物社会行为的观察,发现在群体中对信息的社会共享有利于在演化中获得优势4,并以此作为开发PSO算法的基础。通过加入近邻的速度匹配,消除不必要的变量,并考
130控 制 与 决 策第18卷
虑搜索以及根据距离的加速,形成了PSO的最初版本1。之后,Shi等5引入惯性权重w来更好地控制开发(exploitation)和探索(exploration),形成了当前的标准版本。2.1 算法原理
PSO算法与其他演化算法相似,也是基于群体的,根据对环境的适应度将群体中的个体移动到好的区域,然而它不像其他演化算法那样对个体使用演化算子,而是将每个个体看作D维搜索空间中的一个没有体积的微粒(点),在搜索空间中以一定的速度飞行。这个速度根据它本身的飞行经验以及同伴的飞行经验进行动态调整。第i个微粒表示为Xi=(xi1,xi2,…,xiD),它经历过的最好位置(有最好的适应值)记为Pi=(pi1,pi2,…,piD),也称为pbest。在群体所有微粒经历过的最好位置的索引号用符号g表示,即Pg,也称为gbest。微粒i的速度用Vi=(vi1,vi2,…,viD)表示。对每一代,其第d维(1≤d≤
D)根据如下方程变化
5
vid=wvid+c1rand()(pid-xid)+
c2Rand()(pgd-xid)
(1a)xid=xid+vid
(1b)
其中:w为惯性权重(inertiaweight),c1和c2为加速常数(accelerationconstants),rand()和Rand()为两个在0,1范围内变化的随机函数。
此外,微粒的速度Vi被一个最大速度Vmax所。如果当前对微粒的加速导致它在某维的速度vid超过该维的最大速度vmax,d,则该维的速度被为该维最大速度vmax,d。
式(1a)的第1部分为微粒先前的速度;第2部分为“认知(cognition)”部分,表示微粒本身的思考;第3部分为“社会(social)”部分,表示微粒间的信息共享与相互合作6。 “认知”部分可由Thorndike7的“影响法则(lawofeffect)”解释,即一个得到加强的随机行为在将来更有可能出现。这里的行为即“认知”,并假设获得正确的知识是得到加强的,这样一个模型假定微粒被激励着去减小误差。 “社会”部分可由Bandura8的代理(vicarious)加强概念的解释。根据该理论的预期,当观察者观察到一个模型在加强某一行为时,将增加它实行该行为的几率,即微粒本身的认知将被其他微粒所模仿。 PSO算法的这些心理学假设是无争议的。在寻求一致的认知过程中,个体往往记住它们的信念,同时考虑同事们的信念。当个体察觉同事的信念较好
时,它将进行适应性地调整。2.2 算法流程
标准PSO的算法流程如下:
Step1:初始化一群微粒(群体规模为m),包括随机位置和速度;
Step2:评价每个微粒的适应度;
Step3:对每个微粒,将其适应值与其经历过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;
Step4:对每个微粒,将其适应值与全局所经历的最好位置gbest作比较,如果较好,则重新设置gbest的索引号;
Step5:根据方程(1)变化微粒的速度和位置; Step6:如未达到结束条件(通常为足够好的适应值或达到一个预设最大代数Gmax),则返回Step2。
3 算法参数分析
3.1 算法参数
PSO参数包括:群体规模m,惯性权重w,加速
常数c1和c2,最大速度Vmax,最大代数Gmax。 (1)最大速度Vmax
Vmax决定当前位置与最好位置之间的区域的分辨率(或精度)。如果Vmax太高,微粒可能会飞过好解;如果Vmax太小,微粒不能在局部好区间之外进行足够的探索,导致陷入局部优值。 该有3个目的6: 1)防止计算溢出;
2)实现人工学习和态度转变; 3)决定问题空间搜索的粒度。 (2)权重因子
在PSO算法中有3个权重因子:惯性权重w,加速常数c1和c2。
惯性权重w使微粒保持运动惯性,使其有扩展搜索空间的趋势,有能力探索新的区域。
加速常数c1和c2代表将每个微粒推向pbest和gbest位置的统计加速项的权重。低的值允许微粒在被拉回之前可以在目标区域外徘徊,而高的值则导致微粒突然的冲向或越过目标区域。3.2 参数设置
如果没有后两部分,即c1=c2=0,微粒将一直以当前的速度飞行,直到到达边界。由于它只能搜索有限的区域,所以很难找到好解。
如果没有第1部分,即w=0,则速度只取决于微粒当前位置和其历史最好位置pbest和gbest,速度本身没有记忆性。假设一个微粒位于全局最好位置,
第2期谢晓锋等:微粒群算法综述131
它将保持静止。而其他微粒则飞向它本身最好位置pbest和全局最好位置gbest的加权中心。在这种条件下,微粒群将收缩到当前的全局最好位置,更像一个局部算法。
在加上第1部分后,微粒有扩展搜索空间的趋势,即第1部分有全局搜索能力。这也使得w的作用为针对不同的搜索问题,调整算法全局和局部搜索能力的平衡。
如果没有第2部分,即c1=0,则微粒没有认知
能力,也就是“只有社会(social2only)”的模型6。在微粒的相互作用下,有能力到达新的搜索空间。它的收敛速度比标准版本更快,但对复杂问题,则比标准
版本更容易陷入局部优值点。
如果没有第3部分,即c2=0,则微粒之间没有社会信息共享,也就是“只有认知(cognition2only)”的模型6。因为个体间没有交互,一个规模为m的群体等价于运行了m个单个微粒的运行,因而得到解的几率非常小。我们对一些函数的测试结果也验证了这一点。
早期的试验1将w固定为1.0,c1和c2固定为2.0,因此Vmax成为唯一需要调节的参数,通常设为每维变化范围的10◊~20◊9。
引入惯性权重w可消除对Vmax的需要,因为它们的作用都是维护全局和局部搜索能力的平衡。这样,当Vmax增加时,可通过减小w来达到平衡搜索。而w的减小可使得所需的迭代次数变小10。从这个意义上看,可以将vmax,d固定为每维变量的变化范围,只对w进行调节。
对全局搜索,通常的好方法是在前期有较高的探索能力以得到合适的种子,而在后期有较高的开发能力以加快收敛速度。为此可将w设为随时间线性减小,例如由1.4到05
,由0.9到0.4
10,11
,由
0.95到0.212等。 Suganthan
12
的实验表明,c1和c2为常数时可
以得到较好的解,但不一定必须为2。Clerc13
引入收缩因子(constrictionfactor)K来保证收敛性
vid=K[vid+Υ1rand()(pid-xid)+Υ2Rand()(pgd-xid)](2)式中:K=
22-Υ-Υ2
-4Υ
,Υ=Υ1+Υ2,Υ>4。这对应于式(1a)中一种特殊的参数组合,其中K即一种受Υ1和Υ2的w,而c1=KΥ1,c2=KΥ2。 这些参数也可以通过模糊系统进行调节。Shi和Eberhart14提出一个模糊系统来调节w,该系统
包括9条规则,有两个输入和一个输出,每个输入和输出定义了3个模糊集。一个输入为当前代的全局最好适应值,另一个为当前的w;输出为w的变化。结果14显示该方法能大为提高平均适应值。
此外,群体的初始化也是影响算法性能的一个方面。Angeline15对不对称的初始化进行了实验,发现PSO只是略微受影响。
Ozcan和Mohan16通过假设w=1,c1和c2为常数,pbest和gbest为固定点,进行理论分析,得到一个微粒随时间变化可以描述为波的运行,并对不同的感兴趣的区域进行了轨迹分析。这个分析可以被Kennedy的模拟结果17支持。一个寻求优值位置的微粒尝试着操纵它的频率和幅度,以捕获不同的波。w可以看作是修改了感兴趣的区域的边界,而Vmax则帮助微粒跳到另外一个波。
4 常用测试函数1,11,12,15,18,19
下面给出一些在文献中经常用到的测试函数。前两个是单峰函数,另外几个为多峰函数,其最优值均为或接近原点。以x代表一个实数类型的向量,其维数为n,而xi为其中的第i个元素。 第1个为球面模型
n
f0(x)=
∑x
2i(3a)
i=1
这是个单峰函数,用来区分局部优化器的优劣。 第2个为Rosenbrock函数,也叫香蕉(Banana)函数,是个经典的优化函数
n
f1(x)=
∑(100(x
i-1
-x2i)2
+
(xi-1)2)i=1
(3b)
第3个为Rastrigrin函数
n
f2(x)=
∑(x
2i-10cos(2Πxi)+10)
(3c)
i=1
第4个为Griewank函数
n
n
f3(x)=
14000
∑
xi2
-
cos
xii=1
∏
i=1
i
+1
(3d)
第5个为Schaffer函数20
f6(x)=0.5-
(sinx2+y2)2-0.5(1.0+0.001(x2+y2))2
(3e)
132控 制 与 决 策第18卷
5 一些非标准方案
5.1 簇分解(clusteranalysis)方法18
对团体参考(referencegroups)和社会影响的
研究21表明,人们基于所在团体的规范来选择他的观点和行为,趋向于收敛在团体的平均层次上。 簇分解方法在微粒群体中选择一些微粒作为中心,再将离它最近的N个微粒和中心微粒作为一簇,然后计算每个簇的中心位置,并以这些中心位置来替换pbest或者gbest。
结果18表明,用簇中心替换pbest时,测试函数3(a)~3(c)的解得到了较好的改进,而函数3(d)~3(e)只是略微差一点。如果用全局的簇中心替换gbest时,则除函数3(c)外,结果都较差。
此外,簇分解方法虽然使收敛速度有所加快,但同时引入了一些附加计算,通常需要正常PSO计算时间的74◊~200◊。
经验显示,在个体被它们自己簇的中心所吸引时,PSO相对有效;如果被相邻簇的中心所吸引,则一般不是很好。而总共需要多少簇,这取决于问题空间的维数和局部优值点的数目。5.2 利用选择(selection)的方法15
PSO算法只有一个隐含的弱选择,即得到pbest的过程。而通常的演化算法,选择方法用来重新定向搜索到那些相对较好的区域,作为一个聚焦机制,可以将有限的资源合理地分配。
加入选择可得到一种混合PSO:将每个个体的适应度,基于其当前位置,与k个其他个体进行比较,并记下最差的一个点。群体再用这个记录排序,最高的得分出现在群体的头部。在个体记分和排序过程中,不考虑个人最好位置。一旦群体排完序,群体中当前位置和速度最好的一半用来替换群体中差的另一半,而不修改其个人最好位置pbest。
对于每一代,一半个体将移动到搜索空间中相对较优的位置,这些移动的个体仍包含它们自己的个人最好点,用来影响它们的下次位置。
对函数3(a)~3(d)进行测试的结果15表明,混合方法提高了前3个函数的性能。这是由于选择方法加快了对当前较好区域的开发过程,使得收敛速度较快,但也增加了陷入局部解的可能性。5.3 邻域算子(neighborhoodoperator)[12]
Angeline的研究22表明,尽管PSO能比其他演化算法更快地得到相当有质量的解,但当代数增加时,并不能进行更精确的搜索。
为此,可引入一个变化的邻域算子:在优化的
初始阶段,一个微粒的邻域就是它本身;优化代数增加后,邻域逐渐变大,最后将包括所有的微粒。另外,原来的全局历史最好值gbest将被微粒邻域的局部历史最好值lbest替代。
为得到邻域,而计算候选个体与其他所有个体的距离,其中对第l个个体的距离为dist[l,而最大距离为max2inst,并定义一个与当前计算代数Gn有关的分数frac=0.6+3.0GnGmax。如果frac<0.9,且frac>dist[l]max2inst,则针对lbest进行搜索;否则使用gbest。
对函数3(a)~3(d)进行测试的实验结果12显示,本方法的平均结果总是好于标准PSO的结果。5.4 无希望重新希望方法13
标准版本有3个权重因子,这使得系统调整很自由,但也为找到最好的参数组合带来难度。
Clerc提出一个简化的PSO算法,该算法只有一个公式和一个社会信心参数。定义了一个无希望(No2hope)收敛规则和一个重新希望(Re2hope)方法,以便不时地根据对目标函数的梯度估计和先前的初始化(意味着有初级的记忆)重新初始化群体位置,其中考虑了群体引力中心(Gravitycenter)。用该算法对函数3(c)和另一个二维函数进行测试,得到了很好的结果13。
6 与其他演化算法的对比
6.1 与演化规划23的对比
如果将式(1b)看作一个变异算子,则PSO算法与演化规划(EP)很相似。然而,在每一代,PSO算
法中的每个微粒只朝一些根据群体的经验认为是好的方向飞行,而不象在演化规划中可通过一个随机函数变异到任何方向。也就是说,PSO算法执行一种有“意识(Conscience)”的变异10。
从理论上讲,演化规划具有更多的机会在优化点附近开发,而PSO则有更多的机会更快地飞到有更好解的区域,如果能提供有用的信息。6.2 与遗传算法24的对比
遗传算法(GAs)是模拟遗传选择和自然淘汰的生物进化过程的计算模型,是由Holland于1975年提出的,已广泛应用于计算机科学、优化调度、运输问题和组合优化等领域。
Kennedy和Spears25利用多峰问题产生器26对一个PSO的二进制版本27和3种类型的GAs(只有变异的GA2m和只有交叉的GA2c以及同时具有交叉和变异的GA)进行了研究。实验25发现,PSO基本都能更快地达到全局优值,PSO基本不受问题
“意识”第2期谢晓锋等:微粒群算法综述133
峰数增加的影响,受问题维数的影响也很小。
7 应 用
PSO算法已得到广泛应用,本文简要介绍一些例子。
PSO最直接的应用或许就是多元函数的优化问题,包括带约束的优化问题28。如果所讨论的函数受到严重的噪音干扰而呈现非常不规则的形状,同时所求的不一定是精确的最优值,则PSO算法能得到很好的应用。
比如在半导体器件综合29方面,需要在给定的搜索空间内根据所希望的器件特性来得到符合要求的设计参数,而所能利用的器件模拟器通常得到的特性空间是高度非线形的。我们用PSO替换GAs进行了计算,发现PSO能比GAs更快地找到较高质量的设计参数。
另外,还有一种应用更广泛的方法:简单而有效地演化的人工神经网络,不仅用于演化网络的权重,而且包括网络的结构10,30。
作为一个演化神经网络的例子,PSO算法已应用于分析人的颤抖31。对人颤抖的诊断,包括帕金森(Parkinson)病和原发性颤抖,是一个非常具有挑战性的领域。PSO已成功地应用于演化一个用来快速和准确地辨别普通个体和有颤抖个体的神经网络,而网络的输入则为从一个活动变化记录系统中获得的归一化的移动振幅。
另一个应用例子是使用PSO对一个电气设备的功率反馈和电压进行控制32。这里,采用一种二进制与实数混合的PSO算法来决定对连续和离散的控制变量的控制策略,以得到稳定的电压。 此外,PSO还在动态问题中得到应用33。
一般而言,PSO与其他演化算法一样,能用于求解大多数优化问题。在这些领域中,最具潜力的有系统设计、多目标优化、分类、模式识别、信号处理、机器人技术应用、决策制定、模拟和证明等。例子包括模糊控制器设计、工作调度、实时机器人路径设计和图像分割等。
8 发展趋势与展望
对微粒群算法的研究,无论是在理论还是在实
践方面都在不断发展中,已有的研究成果还相当分散。与相对鲜明的生物社会特性基础相比,PSO的数学基础显得相对薄弱,缺乏深刻且具有普遍意义的理论分析。因此,对数学基础的研究非常重要,包括对不同搜索问题的收敛性、收敛速度估计、预防陷入局部优值和参数设置影响。
此外,还需要进行与其他优化技术的比较,更深入地了解其性能,并与其他技术(神经网络、模糊逻辑、复杂系统自组织34以及混沌理论等)相结合,以提高算法的计算性能。
算法的应用领域尚有待于进一步拓宽。
9 结 论
PSO算法是一种相当简单的算法,只需很少的代码和参数,但在各种问题的求解与应用中却展现了它的特点和魅力。该算法为人们提供了如下一种思路1:使智慧出现而不是努力强迫它;模拟自然而不是力图控制它;寻求使事情简单化而不是让它复杂。
目前我国针对PSO算法的研究还很少,而针对具体应用领域的研究则更为重要,以便促进我国高新技术的迅速发展。参考文献(References):
1
KennedyJ,EberhartR.Particleswarmoptimization[A.ProcIEEEIntConfonNeuralNetworks[C.
Perth,1995.194221948.
2
EberhartR,KennedyJ.Anewoptimizerusingparticleswarmtheory[A.
Proc6thIntSymposiumonMicro
MachineandHumanScience[C.Nagoya,1995.39243.
3MillonasMM.SwarmsPhaseTransitionandCollective
Intelligence[M.MA:AddisonWesley,1994.
4WilsonEO.Sociobiology:TheNewSynthesis[M.MA:BelknapPress,1975.5
ShiYuhui,
EberhartR.
Amodifiedparticleswarm
optimizer[A.
ProcIEEEIntConfonEvolutionary
Computation[C.Anchorage,1998.69273.
6KennedyJ.Theparticleswarm:Socialadaptationofknowledge[A.
ProcIEEEIntConfonEvolutionary
Computation[C.Indiamapolis,1997.3032308.
7ThorndikeEL.AnimalIntelligence:EmpiricalStudies[M.NewYork:MacMillan,1911.
8
BanduraA.SocialFoundationsofThoughtandAction:ASocialCognitiveTheory[M.
NewJersey:Prentice2
Hall,1986.9
EberhartR,ShiYuhu.iParticleswarmoptimization:Developments,applicationsandresources[A.Proc
IEEE
IntConf
onEvolutionaryComputation[C.
Seoul,2001.81286.10
ShiYuhui,EberhartR.Parameterselectioninparticleswarmoptimization[A.Procofthe7thAnnualConf
onEvolutionaryProgramming[C.WashingtonDC,
1998.5912600.11
ShiYuhui,EberhartR.Empiricalstudyofparticle
134
控 制 与 决 策
第18卷
swarmoptimization[A.ProcoftheCongressonEvo2
lutionaryComputation[C.WashingtonDC,1999.
194521950.12
SuganthanPN.Particleswarmoptimiserwithneigh2bourhoodoperator[A.ProcoftheCongressonEvolu2
tionaryComputation[C.WashingtonDC,1999.19582
1962.
13ClercM.Theswarmandthequeen:Towardsadeter2ministicandadaptiveparticleswarmoptimization[A.ProcoftheCongressonEvolutionaryComputation[C.
WashingtonDC,1999.195121957.14
ShiYuhui,EberhartR.Fuzzyadaptiveparticleswarmoptimization[A.ProcIEEEIntConfonEvolution2
aryComputation[C.
Seoul,2001.1012106.
15AngelinePJ.Usingselectiontoimproveparticleswarmoptimization[A.ProcIEEEIntConf
on
EvolutionaryComputation[C.
Anchorage,1998.842
.
16OzcanE,MohanC.Particleswarmoptimization:Surfingthewaves[A.ProcoftheCongressonEvo2
lutionaryComputation[C.WashingtonDC,1999.
193921944.
17KennedyJ.Thebehaviorofparticles[A.Proc7th
AnnualConf
onEvolutionaryProgramming[C.
Gemany:Springer,1998.5812591.18
KennedyJ.Stereotyping:Improvingparticleswarmperformancewithclusteranalysis[A.ProcIEEEInt
ConfonEvolutionaryComputation[C.LaJolla,2000.150721512.19
EberhartR,ShiYuhu.i
Comparinginertiaweightsandconstrictionfactorsinparticleswarmoptimization[A.ProcIEEEIntConfonEvolutionaryComputa2tion[C.LaJolla,2000.84288.
20DavisL.HandbookofGeneticAlgorithms[M.New
York:VanNostrandReinhold,1991.
21
SherifM,SherifCW.ReferenceGroups:ExplorationintoConformityandDeviationofAdolescents[M.
Chicago:HenryRegnery,19.22
AngelinePJ.Evolutionaryoptimizationversusparti2cleswarmoptimization:Philosophyandperformancedifference[A.Procofthe7thAnnualConfonEvolu2
tionaryProgramming[C.
Gemany:Springer,1998.6012610.23
FogelLJ,WalshMJ.ArtificialIntelligencethroughSimulatedEvolution[M.
Chichester:JohnWiley,
1966.24
HollandJH.AdaptationinNaturalandArtificialSystems[M.
AnnArbor:UniversityofMichigan
Press,1975.25
KennedyJ,SpearsWM.Matchingalgorithmstoproblems:Anexperimentaltestoftheparticleswarmandsomegeneticalgorithmsonthemultimodalprob2lemgenerator[A.ProcIEEEIntConfonEvolution2
aryComputation[C.Anchorage,1998.78283.
26
JongKDe,PotterM,SpearsW.Usingproblemgen2eratorstoexploretheeffectsofepitasis[A.Proc
ofthe7thIntConfonGeneticAlgorithms[C.
Mor2
ganKaufmann,1997.3382345.27
EberhartR,KennedyJ.Discretebinaryversionoftheparticleswarmalgorithm[A.ProcIEEEIntConfon
Systems,ManandCybernetics[C.
Orlando,1997.
410424108.28
RayT,LiewKM.Aswarmwithaneffectiveinfor2mationsharingmechanismforunconstrainedandcon2strainedsingleobjectiveoptimizationproblems[A.ProcIEEEIntConfonEvolutionaryComputation[C.
Seoul,2001.75280.
29XieXiaofeng,ZhangWenjun,YangZhilian.Incorpo2ratingknowledgeingeneticalgorithmsfordevicesyn2thesis[A.6thIntConfonSolid2stateandIntegratedCircuitTechnology[C.Shanghai,2001.114321146.
30KenneayJ,EberhartR,ShiYuhu.iSwarmintelli2gence[M.
SanFrancisco:MorganKaufmann,2001.
31
EberhartR,HuXiaohu.iHumantremoranalysisusingparticleswarmoptimization[A.Procofthe
CongressonEvolutionaryComputation[C.Washing2
ton,1999.192721930.
32
YoshidaH,KawataK,FukuyamaY,etal
.Aparticleswarmoptimizationforreactivepowerandvoltagecontrolconsideringvoltagesecurityassessment[J.Trans
of
theInstituteof
ElectricalEngineers
of
Japan,1999,1192B(12):146221469.
33EberhartR,ShiYuhu.iTrackingandoptimizing
dynamicsystemswithparticleswarms[A.Proc
IEEEIntConf
onEvolutionaryComputation[C.
Hawaii,2001.942100.34
Prigogine.I
OrderthroughFluctuation:Self2organi2zationandSocialSystem[M.
London:Addison2
Wesley,1976.
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- huatuo0.cn 版权所有 湘ICP备2023017654号-2
违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务