软件学报  2018, Vol. 29 Issue (9): 2606-2615   PDF    
基于邻域差分和协方差信息的单目标进化算法
李学强1, 黄翰2, 郝志峰3     
1. 东莞理工学院 计算机与网络安全学院, 广东 东莞 523808;
2. 华南理工大学 软件学院, 广东 广州 510006;
3. 佛山科学技术学院 数学与大数据学院, 广东 佛山 528000
摘要: 复杂的单目标优化问题是进化计算领域的一个研究热点问题,已有差分进化和协方差进化被认为是处理该问题的较有效方法,其中,差分信息类似于梯度可以有效地指导算法朝着最优解方向搜索,而协方差则是基于统计的方式来生成较优的子代种群.引入了协方差信息对差分算子进行改进,提出了一种基于邻域差分和协方差信息的进化算法(DEA/NC)来处理复杂的单目标优化问题.算法对现有差分算子中通常采用的随机选点或结合当前最优解进行差分的方式进行了分析:当随机选择的差分个体间的差异较大时,差分信息不能作为一种局部的梯度信息来指导算法的搜索;而结合最优解的差分信息又会使得种群朝着当前最优解的方向搜索,导致种群快速地陷入局部最优.基于此,采用了邻域差分的方式来提高差分算子的有效性,同时避免种群的多样性丢失.另外,引入了协方差来度量个体变量间的相关度,并利用相关度来优化差分算子.最后,算法对cec2014中的单目标优化问题进行了测试,并将实验结果与已有较好的差分进化算法进行了比较,实验结果表明了该算法的有效性.
关键词: 单目标优化     进化算法     差分进化     协方差进化     多样性保持    
Evolutionary Algorithm for Single-Objective Optimization Based on Neighborhood Difference and Covariance Information
LI Xue-Qiang1, HUANG Han2, HAO Zhi-Feng3     
1. School of Information Technology, Dongguan University of Technology, Dongguan 523808, China;
2. School of Software Engineering, South China University of Technology, Guangzhou 510006, China;
3. School of Mathematics and Big Data, Foshan University, Foshan 528000, China
Foundation item: National Natural Science Foundation of China (61370102); Guangdong Natural Science Funds for Distinguished Young Scholar (2014A030306050); Ministry of Education—China Mobile Research Funds (MCM20160206); Guangdong High-Level Personnel of Special Support Program (2014TQ01X664); The PhD Start-Up Fund of Dongguan University of Technology (GC300502-3); Higher Education Innovation Strong School Project of Guangdong Province of China (2017KQNCX190)
Abstract: Complex single-objective optimization problem is a hot topic in the field of evolutionary computation. Differential evolution and covariance evolution are considered to be two of the most effective algorithms for this problem, as the difference information similar to the gradient can effectively guide the algorithm towards the optimal solution direction, and the covariance is based on statistics to generate an offspring population. In this paper, the covariance information is introduced to improve the difference operator, then an evolutionary algorithm based on neighborhood difference and covariance information (DEA/NC) is proposed to deal with complex single-objective optimization problem. The two commonly used difference operators generated by random selection individuals and combined by the current optimal solution are analyzed. With the first approach, the difference information cannot be used as a local gradient information to guide the search of the algorithm when the Euclidean distance between randomly selected individuals is large. Meanwhile, the second approach will make the population search in the direction of the current optimal solution, which will lead the population to quickly fall into local optimum. In this paper, a neighborhood difference method is proposed to improve the effectiveness of the differential operator while avoiding the diversity of population loss. In addition, a covariance is introduced to measure the correlation between individual variables, and the correlation is used to optimize the difference operator. Finally, the algorithm tests the single-objective optimization problem in cec2014, and compares the results with the existing differential evolution algorithms. The experimental results show the effectiveness of the proposed algorithm.
Key words: single-objective optimization     evolutionary algorithm     differential evolution     the covariance evolution     diversity maintenance    

单目标优化问题广泛存在于工程管理、计算机应用、工程优化和自动化控制等领域, 其中, 很多的优化问题可以转化为连续或者分段连续的单目标优化问题, 其数学模型表述如下:

$ {\rm{Minimize}}f\left( x \right), x = {[{x_1}, \ldots ., {x_D}]^T} $ (1)

其中, xRD为决策向量, D为自变量维数, xi∈[li, ui](i=1, 2, …, D), ui, lixi的上下边界.

对很多较复杂的单目标优化问题, 传统的数学方法往往无法求解, 而基于群体智能的算法对该类问题却具有很好的求解效果[1], 因此, 基于群体智能的算法极大地引起了相关学者的关注和研究, 在过去的20多年里[2], 很多的基于群体智能的进化算法、粒子群算法[3]和基因文化算法[4]等都被提出和应用, 其中, 差分进化算法(DEA)因其在处理大多的优化问题时具有简单易用和极其高效的搜索能力, 已逐渐成为最有效的进化算法之一[5-7].

差分进化算法中, 主要的3个参数为差分系数F、杂交概率CR和种群规模NP.在过去10年中, 相关的学者对差分系数F和杂交概率CR这两个变量进行了研究, 并给出了一些有益的经验指导[8, 9]; 而对种群规模的设定, Storn和Price[5]认为, 适合的人口规模应在5D和10D之间.目前, 已有大量的差分进化算法被相关学者相继提出, 其中, Qin等人[10]提出了SDE算法, 其通过种群的历史先验知识, 自适应地选取两种不同的变异策略及其相关的控制参数.Brest等人[11]提出了一种自适应jDE算法, 其对每个个体都独立地设置了一组控制参数, 然后引入两个新的参数来自适应地调整个体的控制参数.Zhang和Sanderson[12]提出了一种新的JADE算法, 其使用了具有可选外部归档的突变策略, 算法根据先前的成功记录自动调整控制参数FCR.Wang等人[9]提出了CoDE算法, 算法中每个突变策略的参数都从固定的参数集合中随机选取.Mallipeddi等人[13]提出了一种具有自适应个体生成策略的EPSDE算法.Fan和Yan[14]提出了一种控制参数和自适应突变策略分区进化的自适应DE算法, 并得到比其他算法更好的结果.针对不同的单目标优化问题或不同的进化阶段, 进化算法往往需要选择不同的突变策略和合适的参数来提高算法的性能, 因此, 新个体的生成策略非常重要[14].

本研究是在差分进化算法的基础上对差分方式和差分参数进行了分析, 提出了两种新的差分算子.已有的差分信息类似于梯度信息, 可以指导算法朝着有利的方向搜索最优解.然而, 梯度描述的是一种局部信息, 而差分进化算法中采用的差分选点方式很难保证这种选取的差分点同在一个很小的局部内.因此, 随机个体间的差分信息存在两个关键的问题:其一, 如果两个个体间的差异太大, 即解点间的欧式距离太大, 这种差分信息并不能很好地描述梯度信息来指导算法的搜索; 其二, 对具体的一个待优化个体, 随机选取的个体或与最优个体间的差分信息对待优化个体往往并不具有指导意义, 即, 差分信息与待优化个体之间存在不匹配的情况.另外, 如果将最优个体加入至差分过程中, 则由于种群中的个体在进化的过程中都加入了当前最优解的信息, 会使得种群不断朝着最优解的方向进行搜索, 这很可能导致种群的多样性丢失而陷入局部.

考虑到已有差分算子存在的缺陷, 本文从差分算子的两个方面进行优化.

●  其一, 考虑了差分过程中因个体间的差异太大而导致差分信息失效的问题, 本文对待优化的个体, 仅选取与该个体邻近的几个个体进行差分, 并结合邻近个体的适应度来设计差分算子; 同时, 为了避免算法在每一代都搜索邻近个体导致计算复杂度过高的问题, 在初始化时就预先设定好每个个体的邻域, 这样, 邻近个体之间的信息就可以共享;

●  其二, 考虑了种群个体在变量上的差异程度, 利用协方差信息得到个体变量间的相关性, 并将其作为个体变量间的差异程度的度量, 变量间的相关度越高, 对应差分变量对彼此的影响程度就越高.通过这种差异程度的度量, 可以反映差分信息对待优化个体在每一维度上的影响, 由此设计了基于邻域差分和协方差信息的差分进化算法.

本文对差分进化算法的基本问题和研究现状进行总结, 对差分算子中存在的问题进行分析, 提出了改进差分算法的基本思路.第1节对单目标优化问题的差分进化算法流程、差分进化方式和协方差差分方式进行分析.第2节给出本文算法的基本流程和两种差分算子.第3节将本文算法对CEC2014中的测试问题进行测试, 并对算法中的关键参数进行实验分析, 最后将本文算法的求解结果与已有的较好的单目标优化算法进行比较和分析.第4节对本文内容进行总结.

1 差分进化算法的流程和已有的差分算子 1.1 单目标优化问题的差分进化算法流程

差分进化算法作为一种基于群体智能的随机搜索方法, 已被认为是最有效的进化算法之一.不仅如此, 差分进化算法因其简单和易操作性, 已经得到了广泛的应用.差分进化算法的基本流程主要为以下6步[5, 6](如图 1所示).

Fig. 1 Basic flow of differential evolution algorithm 图 1 差分进化算法的基本流程

差分进化算法中, 参数的设置和新个体的产生方式会直接影响算法的性能, 而种群更新则会影响种群的多样性和算法的收敛速度.差分进化算法的两个关键因素主要体现在上述流程中的第1步差分进化算法的控制参数和第4步新个体生成, 算法流程第5步为种群更新操作.

1.2 已有差分算子中差分个体分析

差分算子作为新个体的生成策略往往决定了差分进化算法的搜索性能, 其中, 差分个体的选择是差分算子的关键因素之一.下面对常见的差分算子中个体的选取进行说明和分析.目前, 常见的差分算子主要采用有DE/rand/1, DE/best/1, DE/target-to-best/2和DE/best/2等方式[5, 6], 本文选取了其中的一种差分方式如下:

$ {\rm{DE/rand}}/2:{z^i} = {x^i} + {F_1}({x^j}-{x^k}) + {F_2}({x^g}-{x^h}), $

其中, zi为个体xi(i=1, 2, …, NP)生成的新个体; j, k, g, h∈{1, 2, …, NP}为随机选取的种群中个体对应的序号, 序号中可能包含最优个体; F, F1, F2为差分系数.

在上述的差分算子中, (xj-xk)用于指导xi的搜索, 一方面, 对于随机选取的xjxk, 如果欧式空间距离较大, 则二者很可能不在同一个局部最优区域, 那么这种差分方式并不具有梯度的指导意义, 因为梯度信息是一种局部的信息; 另一方面, xj, xkxi如果不在同一个局部最优区域, 则(xj-xk)所对应差分信息并不能用于指导xi朝着适应度较优的方向搜索.基于以上两个方面的考虑, 用于指导xi的差分信息(xj-xk)中的xjxkxi最好处在同一个局部最优区域.一种直观的方式就是选取xi邻近的个体进行差分来指导xi的搜索方向.

1.3 基于协方差信息的差分系数

差分系数对差分算子的作用同样至关重要, 已有的差分系数通常采用确定或自适应的方式来设定, 本文将结合协方差信息来设定差分系数.文中用到的协方差信息与已有的协方差进化策略不同.

已有的协方差进化策略CMAES[15-17]是基于多元正态分布的假设来生成新个体.它首先根据当前种群来获取正态分布模型中的参数, 然后基于该分布来生成多个新个体, 然后对种群进行更新, 并在新的种群下更新原正态分布模型中的参数, 直到算法终止.这种形式是采用统计的方法来估计最优解可能出现的位置, 而且当处理的问题为多模态的优化问题时, CMAES可能会快速的早熟.

本文的协方差算子的作用不是基于分布的思想来生成新的个体, 而是将其作为种群中个体变量间差异程度的一种度量方式.标准化的协方差信息即为变量间的相关系数, 可以有效度量不同变量间的关联程度, 如果两个变量的相关系数越高, 则其中一个变量的改变必然会引起另一个变量的改变, 关联越高的变量间的波动彼此影响也越大.基于此, 对于一个给定的差分向量, 可以通过协方差算子与差分向量的乘积来计算该差分向量在不同维度上的对变量的影响.基本的计算方式如下:

$ {z^i} = {x^i} + C({x^j}-{x^k}). $

其中, C为标准化的协方差矩阵, xizi分别为父代个体和生成的子代个体, xjxk为按照某种方式从种群中选取的个体.

2 本文算法的基本流程

考虑到DEA在求解单目标优化问题时效果较好, 本文对已有差分算子中存在的不足进行了完善和补充, 提出了基于邻域差分和协方差信息的差分进化算法来求解复杂的单目标优化问题.算法中的邻域差分算子将利用邻近个体间的梯度信息来指导算法朝着有利的方向搜索最优解; 而协方差算子将被用于优化差分算子中差分系数, 从而有效地提高算法的搜索效率.算法的基本流程如图 2所示.

Fig. 2 Basic flow of DEA/NC algorithm in this paper 图 2 本文DEA/NC算法的基本流程

算法流程中的主要初始化参数包括种群规模、测试函数的最大计算次数, 二者将根据测试函数的要求进行设置, 邻近个体的数目T和协方差算子的抽样数目K会在实验部分进行分析讨.算法流程中:第1行为随机产生初始化种群; 第2行给每个个体设置一个邻域; 第3行~第9行为新个体的产生, 其中, 第6行是基于邻域差分算子来产生新个体, 第8行采用协方差差分算子; 第10行~第12行为新个体的度量和个体的更新.

2.1 邻域差分算子

按照本文的算法流程, 算法将采用邻域差分算子来生成新个体, 对于已有的的差分算子, 随机选取的两个个体间的欧式距离太大会导致差分信息失效或与当前待优化个体不匹配, 因此, 对种群中的待优化个体xi(i=1, 2, …, NP), 仅选取与xi邻近的多个个体进行差分来指导算法搜索最优解.同时, 如果在进化的每一代都要搜索xi的邻近个体, 则必然会加大算法的计算复杂度, 因此, 对每个个体xi, 都预先设定种群中T个与其邻近的个体{xi1, xi2, ..., xiT}, 其对应的序号组成的集合Si={i1, i2, …, iT}在进化的每一代都不变.于是, 邻域差分算子可表述如下:

$ {z^i} = {x^i} + \sum\limits_{t = 1}^T {{F_j}({x^i}-{x^{{i_t}}})} $ (2)

其中, ${F_t} = {r_1} \cdot \frac{{\frac{1}{{f({x^{{i_t}}})-{f^ * }}}}}{{\sum\limits_{j = 1}^T {\left| {\frac{1}{{f({x^{{i_t}}})-{f^ * }}}} \right|} }} \cdot sign(f({x^{{i_t}}})-f({x^i}))$, 函数值越小, 对应的差分系数Ft越大.$sign(f({x^{{i_t}}})-f({x^i}))$用于控制个体的搜索方向, f*为到目前为止找到的最优值, r1∈[0.8, 1.2]为扰动变量.

2.2 协方差差分算子

对于算法流程中的基于协方差信息的差分算子, 设计的基本思路是:通过协方差算子来度量种群中个体变量间差异程度, 并以此来评估差分变量在个体每一维度上的影响.在进化的每一代, 为了减少算法的计算复杂度, 仅从种群中随机抽样K个个体与当前找到的最优解做协方差计算.协方差算子的计算方式如下:

$ {z^i} = {x^i} + {r_2}C({x^i}-{x^j}) $ (3)

其中, $C = norm\left({\sum\limits_{k = 1}^K {({x^{{s_k}}}-{x^ * })'({x^{{s_k}}}-{x^ * })} } \right)$, x*为到目前为止找到的最优解, norm(·)为标准化函数, r2∈(0, 1)为随机扰动变量, jSi.

当两个变量间的关联度较大时, 其中一个变量的变动将极大地影响另一个变量的变动, 否则影响就比较小.这种通过协方差算子与差分向量的乘积就可以有效地计算差分向量在不同维度上对变量的影响.

2.3 个体元素超出边界处理及变异方式

对于新产生的个体zi, 如果zi中的第j个变量$z_j^i \notin [{l_j}, {u_j}]$, 即$z_j^i$超出边界, 此时修正$z_j^i$如下:

$ z_j^i = \left\{ {\begin{array}{*{20}{l}} {{l_j} + r(x_j^i-{l_j}), {\rm{ }}z_j^i < {l_j}}\\ {{u_j}-r({u_j}-x_j^i), {\rm{ }}z_j^i > {u_j}} \end{array}} \right. $ (4)

其中, ui, lixi的上下边界, r∈(0, 1)为随机变量.

对个体的变异, 引入了文献[20]中的模拟退火的变异方式.

3 实验分析 3.1 参数设置

为了测试本文算法DEA/NC的性能, 我们选取了CEC2014中的连续单目标优化问题进行测试[19], 测试集合包含30个测试问题, 其中, F1~F3为单峰函数, F4~F16为多峰函数, F17~F22为混合函数, F23~F30为复杂的合成函数.

按照CEC2014中对测试问题的要求[19], 设置重复计算测试问题的次数为50;计算测试函数次数的上限为10000D, 其中, D为自变量的维度, 分别取10, 30, 50和100;每个变量的取值范围为[-100, 100];设置种群的规模为100;随机选取邻近个体的数目T=3;协方差计算中, 随机抽样种群中个体的数目K=20, 另外, 本文算法是通过Matlab2012b编程实现.

3.2 关键参数分析

在邻域差分算子中, 每个个体需选取临近的个体进行差分, 为了合理地设置临近个体的数目T, 同时考虑到临近个体的数目不会太大, 对T取2, 4, 6, 8, 10, 12, 14, 16, 18, 20时最优解的情况进行了对比分析.为了避免测试函数和随机变量对实验结果造成影响, 我们对上述4种类型的测试问题各选取了1个进行实验, 其中, 选取的测试函数为F1, F4, F17和F23, 重复的实验次数为10次, 10次实验得到的最优解的均值如图 3所示.

Fig. 3 Influence of neighborhoods T on the fitness F in different dimensions and test suits (nrun=10) 图 3 在不同维度和测试函数上邻域的数目T对适应度F的影响(nrun=10)

根据图 3所示:图中同一行图像中的自变量维度相同测试函数不同, 由实验结果可知, 邻域个体的数目在不同测试函数上的最优取值不同; 图中同一列图像的测试函数相同维度不同, 由实验结果可知, 邻域个体的数目在不同维度上的最优取值也不同; 另外, 对于T的不同取值情况, 同一测试函数在同一维度上的适应度几乎处于同一个数量级.从整体上看, T的取值太小或者太大, 本文算法的实验结果都不理想.结果表明, 邻域个体的数目尽量控制在范围(2, 14)内.为了减少计算量, 本文算法在测试所有函数时设置T=3.

在协方差算子中, 需要对种群进行抽样, 为了合理地设置抽样个体的数目K, 同时考虑抽样的目的是为了减少算法的计算时间, 因此设置抽样的个数不超过种群规模的50%, 我们对K取5, 10, 20, 25, 30, 35, 40, 45, 50时最优解的情况进行了对比分析.为了避免测试函数和随机变量对实验结果造成影响, 我们对上述4种类型的测试问题各选取了1个进行实验, 其中, 选取的测试函数为F1, F4, F17和F23, 重复的实验次数为10次, 10次实验得到的最优解的均值如下图 4所示.

Fig. 4 Influence of population sampling K on fitness F in different dimensions and test suits (nrun = 10) 图 4 在不同维度和测试函数上种群抽样数目K对适应度F的影响(nrun=10)

图 4中同一行图像中的自变量维度相同测试函数不同, 由实验结果可知, 抽样的数目在不同测试函数上的最优取值不同; 图中同一列图像的测试函数相同维度不同, 由实验结果可知, 抽样的数目在不同维度上的最优取值也不同; 另外, 对于K的不同取值情况, 同一测试函数在同一维度上的适应度几乎处于同一个数量级, 对最终的求解结果影响不大.为了减少协方差算子的计算量, 为此, 本文算法在测试所有函数时设置K=20.

3.3 DEA/NC与其他较优差分进化算法在CEC2014测试集上实验结果

我们将本文DEA/NC算法对测试集CEC2014进行了测试[19], 测试问题的维度分别为10, 30, 50和100, 得到的测试结果见表 1.

Table 1 Results got by DEA/NC on CEC2014 benchmarks for 10, 30, 50 and 100 dimensions in 50 runs 表 1 测试问题维度为10, 30, 50和100时, DEA/NC算法在CEC2014测试集上50次计算中得到的结果

表 1所示, 本文算法对CEC2014中的测试问题在维度分别为10, 30, 50和100上的进行了测试, 列中的数据表示50次计算结果与真实值偏差的最优值、均值和标准差.实验结果显示:测试函数F23~F30在各个维度上都很难找到最优解, 而其他的测试函数在维度加大时也很难找到最优解.实验结果显示:随着测试问题维度的增大, 算法搜索最优解的难度也增大, 只有部分测试函数可以找到最优解.因此, 求解复杂的高维的单目标优化问题依然是一个巨大的挑战.

为了说明本文算法的性能, 我们将本文算法的测试结果与已有的较优差分进化算法在CEC2014上的测试结果进行了比较, 测试结果见表 2.

Table 2 Comparison of DEA/NC with state-of-the-art algorithms on the CEC2014 benchmarks using the Wilcoxon Rank-Sum test (significantly, p < 0.05) 表 2 DEA/NC与其他较好的算法在CEC2014问题上的秩和检验(显著性水平p < 0.05)结果

与本文算法DEA/NC比较的较优的差分进化算法包括b3e3pbest[20], FCDE[21], FERDE[22], FWA-DE[23], POBL-ADE[24], RSDE[25], 比较的结果是在检验水平p < 0.05下进行了秩和检验, 统计结果分为3类:better、worse和similar, 其中, better, worse and similar分别表示其他算法的结果比本算法DEA/NC优、差和无显著差异这3种情况.

通过表 2的结果可以看出:本文算法DEA/NC在不同维度上较b3e3pbest, FCDE和FERDE算法得到的better的总数明显较多, 表明本文算法求解的效果更好; 而与算法FWA-DE, POBL-ADE的求解结果比较, 其中better, worse和similer的总数显著性差异不大, 表明算法与其具有相似的求解效果.结合表 1表 2中的实验和比较的结果表明:当问题的维度加大时, 在有限的测试次数下, 已有的差分进化算法往往很难找到问题的最优解, 需要极大地提高算法的搜索能力.

4 结论

连续单目标优化问题是一个重要的研究领域, 许多现实中的优化问题可以转化为单目标优化问题.而DEA在解决该类问题上具有显著的优势, 本文在原有DEA的基础上提出了基于邻域差分和协方差信息的DEA/NC算法用于求解该类问题, 算法使用了邻域个体的差分算子来避免差分信息失效的问题, 通过协方差信息来度量差分变量对个体在每个维度上的影响.这种计算的方式因较少地利用最优解信息, 可以较好地避免种群陷入局部最优.最后, 本文对CEC2014测试集中的问题在4种不同维度上进行了测试, 并将测试结果与已有的较好的差分进化算法进行比较.实验结果显示了本文提出的算法具有很强的竞争力, 表明了算法的有效性.

参考文献
[1]
Das S, Suganthan PN. Differential evolution:A survey of the state-of-the-art. IEEE Trans. on Evolutionary Computation, 2011, 15(1): 4–31. [doi:10.1109/TEVC.2010.2059031]
[2]
Grefenstette JJ. Optimization of control parameters for genetic algorithms. IEEE Trans. on Systems, Man and Cybernetics, 1986, SMC16(1): 122–128. http://d.old.wanfangdata.com.cn/OAPaper/oai_doaj-articles_2436ffd1aaabcfbfbe589d9c56617b64
[3]
Mo S, Zeng JC, Tan Y. Particle swarm optimization based on self-organisation topology driven by different fitness rank. Int'l Journal of Computational Science and Engineering, 2011, 6(1): 24–33.
[4]
Ong YS, Lim M, Chen X. Memetic computation-past, present and future[research frontier]. Computational Intelligence Magazine, IEEE, 2010, 5(2): 24-31.
[5]
Storn R, Price K. Differential evolution a simple and efficient heuristic for global optimization over continuous spaces. Journal of Global Optimization, 1997, 11(4): 341–359. [doi:10.1023/A:1008202821328]
[6]
Price KV, Storn RM, Lampinen JA. Differential Evolution: A Practical Approach to Global Optimization. New York: SpringerVerlag, 2005. 37-130.
[7]
Zhang JQ, Avasarala V, Sanderson AC, Mullen T. Differential evolution for discrete optimization: An experimental study on combinatorial auction problems. In: Proc. of the IEEE Congress on Computational Intelligence. Hong Kong: IEEE Press, 2008. 2794-2800.
[8]
Neri F, Tirronen V. Recent advances in differential evolution:A survey and experimental analysis. Artificial Intelligence Review, 2010, 33: 61–106. [doi:10.1007/s10462-009-9137-2]
[9]
Wang Y, Cai Z, Zhang QF. Differential evolution with composite trial vector generation strategies and control parameters. IEEE Trans. on Evolutionary Computation, 2011, 15(1): 55–66. [doi:10.1109/TEVC.2010.2087271]
[10]
Qin AK, Huang VL, Suganthan PN. Differential evolution algorithm with strategy adaptation for global numerical optimization. IEEE Trans. on Evolutionary Computation, 2009, 13(2): 398–417. [doi:10.1109/TEVC.2008.927706]
[11]
Brest J, Zumer V, Maucec MS. Self-Adaptive differential evolution algorithm in constrained real-parameter optimization. In: Proc. of the IEEE Congress on Evolutionary Computation. Canada: IEEE Press, 2006. 215-222.
[12]
Zhang J, Sanderson AC. JADE:Adaptive differential evolution with optional external archive. IEEE Trans. on Evolutionary Computation, 2009, 13(5): 945–958. [doi:10.1109/TEVC.2009.2014613]
[13]
Mallipeddi R, Suganthan PN, Pan QK, Tasgetiren MF. Differential evolution algorithm with ensemble of parameters and mutation strategies. Applied Soft Computing, 2011, 11(2): 1679–1696. [doi:10.1016/j.asoc.2010.04.024]
[14]
Fan QQ, Yan XF. Self-Adaptive differential evolution algorithm with zoning evolution of control parameters and adaptive mutation strategies. IEEE Trans. on Evolutionary Computation, 2016, 46(1): 219–232.
[15]
Hansen N, Müller SD, Koumoutsakos P. Reducing the time complexity of the derandomized evolution strategy with covariance matrix adaptation (CMA-ES). Evolutionary Computation, 2003, 11(1): 1–18. [doi:10.1162/106365603321828970]
[16]
Hansen N. The CMA evolution strategy:A comparing review. Studies in Fuzziness and Soft Computing, 2006, 192: 75–102. [doi:10.1007/3-540-32494-1]
[17]
Chen L, Liu HL, Zheng Z, Xie SL. An evolutionary algorithm based on covariance matrix leaning and searching preference for solving CEC 2014 benchmark problems. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 2672-2677.
[18]
Li XQ, Hao ZF, Huang H. An evolutionary algorithm with sorted race mechanism for global optimization, In: Proc. of the Int'l Conf. on Machine Learning and Computing. Qindao: IEEE Press, 2010. 1550-1555.
[19]
Liang JJ, Qu BY, Suganthan PN. Problem definitions and evaluation criteria for the CEC 2014 special session and competition on single objective real-parameter numerical optimization. Technical Report, Zhengzhou: Zhengzhou University and Nanyang Technological University, 2013. 1-32.
[20]
Bujok P, Tvrdik J, Polakova R. Differential evolution with rotation-invariant mutation and competing-strategies adaptation. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 2253-2258.
[21]
Li ZH, Shang ZG, Qu BY, Liang JJ. Differential evolution strategy based on the constraint of fitness values classification. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 1454-1460.
[22]
Qu BY, Liang JJ, Xiao JM, Shang ZG. Memetic differential evolution based on fitness Euclidean-distance ratio. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 2266-2273.
[23]
Yu C, Kelley LC, Zheng SQ, Tan Y. Fireworks algorithm with differential mutation for solving the CEC 2014 competition problems. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 3238-3245.
[24]
Hu ZY, Bao YK, Xiong T. Partial opposition-based adaptive differential evolution algorithms: Evaluation on the CEC 2014 benchmark set for real-parameter optimization. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 2259-2265.
[25]
Xu CJ, Huang H, Ye SJ, A differential evolution with replacement strategy for real-parameter numerical optimization. In: Proc. of the IEEE Congress on Computational Intelligence. Beijing: IEEE Press, 2014. 1617-1624.