MathJax.Hub.Config({tex2jax: {inlineMath: [['$','$'], ['\\(','\\)']]}}); function MyAutoRun() {    var topp=$(window).height()/2; if($(window).height()>450){ jQuery(".outline_switch_td").css({ position : "fixed", top:topp+"px" }); }  }    window.onload=MyAutoRun; $(window).resize(function(){ var bodyw=$win.width(); var _leftPaneInner_width = jQuery(".rich_html_content #leftPaneInner").width(); var _main_article_body = jQuery(".rich_html_content #main_article_body").width(); var rightw=bodyw-_leftPaneInner_width-_main_article_body-25;   var topp=$(window).height()/2; if(rightw<0||$(window).height()<455){ $("#nav-article-page").hide(); $(".outline_switch_td").hide(); }else{ $("#nav-article-page").show(); $(".outline_switch_td").show(); var topp=$(window).height()/2; jQuery(".outline_switch_td").css({ position : "fixed", top:topp+"px" }); } }); 警示传播算法收敛的充分条件
  软件学报  2016, Vol. 27 Issue (12): 3003-3013   PDF    
警示传播算法收敛的充分条件
王晓峰1,2, 许道云2     
1. 北方民族大学 计算机科学系, 宁夏 银川 750021;
2. 贵州大学 计算机科学系, 贵州 贵阳 550025
摘要: 信息传播算法求解可满足问题时有惊人的效果,难解区域变窄.然而,因子图带有环的实例,信息传播算法不总有效,常表现为不收敛.对于这种现象,至今缺少系统的理论解释.警示传播(warning propagation,简称WP)算法是一种基础的信息传播算法,对WP算法的收敛性研究是其他信息传播算法收敛性研究的重要基础.在WP算法中,将警示信息的取值从{0,1}松弛为[0,1],利用压缩函数的性质,给出了WP算法收敛的一个充分条件.选取了两组不同规模的随机3-SAT实例进行实验模拟,结果表明:当子句与变元的比值α < 1.8时,该判定条件有效.
关键词: 警示传播算法     收敛性     可满足性问题     因子图    
Sufficient Conditions for Convergence of the Warning Propagation Algorithm
WANG Xiao-Feng1,2, XU Dao-Yun2     
1. Department of Computer Science, Beifang Minzu University, Yinchuan 750021, China;
2. Department of Computer Science, Guizhou University, Guiyang 550025, China
Foundation item: National Natural Science Foundation of China (61462001, 61262006, 61402017); Natural Science Foundation of Ningxia Province of China (NZ14108); Natural Science Foundation of Beifang Unversity of Nationalities (2014XYZ03, 2014XBZ04); Key Subject Foundation of Computer application technology of Ningxia
Abstract: Message propagation algorithms are very effective in finding satisfying assignments for SAT instances, and hard region become narrower. However, message propagation algorithms do not always converge for graphs with cycles. Unfortunately, rigorous theory proof of this phenomenon is still lacking. Warning propagation (WP) algorithm is the most basic message propagation algorithm, we have derived the sufficient conditions for convergence of the warning propagation algorithm. Lastly, experimental results show that such conditions for convergence of WP are very effective in different group data from random satisfiable 3-SAT instances.
Key words: warning propagation algorithm     convergence     satisfiability problem     factor graph    

约束可满足性问题(constraint satisfaction problem, 简称CSP)是人工智能中的重要研究领域[1-3].CSP问题是三元组〈X, D, C〉:X表示变量的集合, 记为X={x1, …, xn}; D是关于变量x1, …, xn的取值域的集合, 记为D={D1, …, Dn}; C是约束的集合, 每一个约束cC表示为c=〈σ, ρ〉, 其中, 约束范围σ是变量的列表, 约束关系ρ是关于σ中变量取值域的笛卡尔积的子集.可满足性判定问题(satisfiability, 简称SAT)是典型的CSP问题, 即:给定一个合取范式公式(conjunctive normal form, 简称CNF)F, SAT判定问题指是否存在一组指派使得F为真.

SAT问题是计算机科学中的核心问题, 其理论和应用研究是计算机与数理逻辑界学者共同关注的一个重大问题.随着SAT问题的深入研究, 各类具有特殊结构的SAT问题受到越来越多的学者重视.限制子句的长度或变量出现的次数, 实质上是在特殊结构下研究SAT问题, 目前研究较多的是k-SAT问题.当k≥3时, k-SAT问题是著名的NP完全问题.已经发现:在随机k-SAT实例中, 子句个数与变元个数的比值a是一个重要参数, 它不仅对公式的可满足性产生影响, 还对公式可满足性判定的难易程度产生影响.一方面, 在可满足性问题的相变现象的研究中, 随机统计现象表明:满足与不可满足之间出现一种临界现象, 对于随机k-SAT问题, 存在可满足的相变点ad, 当a < ad时, 实例高概率可满足; 当a > ad, 实例高概率不可满足[4, 5].在随机3-SAT问题中, 尽管人们不知道ad的确切值, 但研究结果表明:ad至少为3.52[6], 至多为4.506[7].另一方面, 大多数优秀的可满足性判定算法能够解决的实例与a密切相关.如:基于纯文字规则的算法能够有效求解a < 1.6区域的随机3-SAT实例(如DPLL算法); 基于正文字或负文字出现次数最多而设计的算法可有效求解a < 3.52区域的随机3-SAT实例(如Zchaff算法); WALKSAT算法可有效求解a稍高于3.95区域的随机3-SAT实例[8, 9].

近年来, 使用统计物理中的腔域方法[10, 11]给出了可满足相变点的近似值ad≃4.267, 且存在阈值ac≃3.921.称a < ac为易解SAT区域, 称ac < a < ad为难解SAT区域.位于a < ac区域的可满足实例的解空间形成一个较大的解集簇, 启发式局部搜索算法容易求解; 位于ac < a < ad区域的实例, 解空间被分解成许多很小的解集簇, 这些解集簇之间相互分开, 且相距很远, 不可能通过改变有限数目变量的赋值, 使得可满足指派从一个解集簇转到另一个解集簇, 使用局部搜索算法求解时收敛速度很慢, 且求解难度较大[12].SAT问题的相变现象进一步催生了概率方法在SAT问题中的研究和应用.基于腔域方法设计的求解可满足性问题的信息传播算法, 在难解区域的随机3-SAT实例上非常有效.如:置信传播(belief propagation, 简称BP)算法可有效求解a < 3.95区域的随机3-SAT实例; 调查传播(survey propagation, 简称SP)算法能够有效求解a < 4.26区域的随机3-SAT实例.SP算法是目前求解随机3-SAT问题最为有效的算法, 能够在稍高于线性时间内求解位于难解SAT区域的具备107变量规模的实例, 几乎能够有效求解接近相变点的可满足性实例.对SP算法而言, 难解SAT区域变窄[12-15].

信息传播算法不仅对固定定义域的随机可满足性问题非常有效(如随机k-SAT问题), 还可用于求解具有增长定义域的随机可满足性问题.许可等人在NP完全问题相变现象的研究中, 提出了具有精确相变和难解实例的RB模型.该模型是典型的具有增长定义域的随机可满足实例产生模型, 被广泛应用于构造难解性问题[16].随后, 文献[17, 18]分别从理论上和实验上说明:在相变的阈值附近, 求解RB模型随机实例的难度随着问题规模的增加以指数形式增长.文献[19]表明, 基于变量熵的BP算法在求解RB模型实例时非常有效.同样, 信息传播算法可用于求解量化布尔公式(quantified boolean formulae, 简称QBF)的可满足性.殷明浩等人设计了一种基于SP的启发式算法HSPQBF用于求解QBF问题, 实验结果表明, 该算法有效[20].

近几年, 信息传播算法得到了计算机界学者的重视, 已取得了一些令人瞩目的研究成果.例如, Ravanbakhsh和Greiner通过引入参数, 提出了求解CSP问题的PBP (perturbed BP)算法和PSP (perturbed SP)算法.实验结果表明:在随机CSP实例上, PBP算法效果优于BP算法.同样, 对于随机SAT实例, PSP算法也优于SP算法[21].特别是在组合优化问题方面, 信息传播算法的应用已取得丰硕的成果, 如MAX-SAT问题、Maximum weight matching问题、Minimum cost network flow问题、图的着色、最大独立集等[22-27].

尽管信息传播算法求解组合优化问题非常有效, 但仍有两个问题有待在理论上深入研究:

1)信息传播算法是否收敛;

2)如果信息传播算法收敛, 得到的结果是否有效, 即, 近似度如何.如果信息传播不收敛, 这种情况下算法失效.

已经知道:因子图为树型结构的实例, 信息传播算法能够有效收敛; 但对于因子图含有多个回路的图型结构的实例, 信息传播算法不总有效, 常表现为不收敛[13].

目前, 对信息传播算法的收敛性研究已取得了一些成果.如, 文献[14]中给出了信息传播算法的一般形式, 其本质是变量边缘概率分布的一种近似.文献[28]中分析了有限树型结构上信息传播算法的复杂性.文献[29]中分析了因子图含有一个环的图型结构的实例上信息传播算法的收敛性, 表明信息传播算法能够有效收敛, 且得到的结果是变量边缘分布的有效近似.文献[30]表明:对于任意结构的高斯图模型实例, 信息传播算法能够正确收敛.Tatikonda和Jordan分析了基于计算树的Gibbs测度序列的唯一性与BP算法收敛性之间的关系, 导出了BP算法收敛的一个充分条件[31].Heskes利用Bethe自由能量最小值的唯一性, 给出了BP算法有唯一固定点的有效条件, 分析了信息传播算法与统计物理中自由能量函数之间的关系, 指出信息传播算法收敛后得到的固定点是自由能量函数的稳定点, 并给出了BP算法收敛到唯一固定点的充分条件, 但未对信息传播算法是否收敛做出理论分析[32].最近几年, 一些学者根据信息更新函数的特征, 并利用函数的压缩映射原理, 给出了信息传播算法收敛的一些充分条件.如, Ihler直接从BP算法的信息更新函数出发, 获得了传递错误信息的界, 并利用该错误界给出了信息传播算法收敛的一个充分条件[33].Mooij和Kappen利用向量空间中信息更新函数的压缩映射原理导出了BP算法收敛的充分条件, 并指出:如果更新函数系数矩阵的谱半径严格小于1, 则BP算法收敛[34].Shi和Schonfeld等人得到了传递错误信息的一个更紧致的界, 利用这个界, 研究了信息传播算法的动态行为, 并给出了算法收敛的一个充分条件[35].文献[23]表明:BP算法在立方级复杂度内能够有效收敛到最大权重匹配问题的最优解.文献[25]中分析了求解最小代价网络流(MCF)的BP算法的收敛性, 研究结果表明:在亚多项式时间内, BP算法收敛到MCF问题的最优解, 并且这个最优解具有唯一性.与此同时, 文献中还提供了简化了的BP算法, 能够对MCF问题给出多项式时间随机近似方案(FPRAS).文献[36]中给出了信息传播算法收敛的一个概率条件, 研究结果表明:BP算法能够给出最大权重匹配问题和最小代价网络流问题的最优解, 且算法迭代次数高概率的有多项式界.文献[37]中分析了BP算法的复杂性, 提出SBP (stochastic BP)算法, 该算法的消息更新复杂性较BP算法的复杂性低了一个指数级别.

警示传播(warning propagation, 简称WP)算法是最为基础的信息传播算法, 对WP算法的收敛性分析, 有助于其他信息传播算法的收敛性分析.文献[38]中, Feige和Mossel等人分析了WP算法的收敛性, 但主要局限于植入指派的随机可满足实例产生模型${\cal P}_{n,p}^{plant},$即:给定一个指派, 以概率p随机选取满足指派的子句之集构成实例.具体地讲, 在${\cal P}_{n,p}^{plant},$模型中取概率p充分大, 其本质是高概率地最多只有一个赋值满足该实例.文献[39]证明了WP算法在G(n, k, p)模型产生的3CNF公式上的收敛性, 但只证明了p取值很小的一部分实例.目前, 对警示传播算法的性能及收敛性的理论分析仍然不完善.

将WP算法的警示信息取值从{0, 1}松弛为[0, 1], 利用向量空间中压缩函数的性质, 并借鉴文献[40]中的方法, 给出了WP算法收敛的一个充分条件.具体地讲, 对于CNF公式F={a, b, …}, 含有n个变元x1, x2, …, xn.公式F的因子图中边的序列集合记为D={ai:(a, i)∈E}, 构造|D|×|D|的非负矩阵A, A中的对角元素为${A_{a \to i,a \to i}} = \sqrt 2 \delta $, 其他元素为${A_{a \to i,b \to j}} = {1_{V(j)\backslash a}}(b)\,{1_{V(a)\backslash i}}(j)\,\theta ( - J_j^aJ_j^b)$, δ为常数.如果非负矩阵A的谱半径ρ(A)严格小于1, 则WP算法收敛, 且与初始信息无关.其中, 1X(x)是标识函数, 若xX, 则1X(x)=1;若xX, 则1X(x)=0.最后, 选取了两组规模不同的随机3-SAT实例进行实验模拟, 结果表明:当子句与变元的比值α < 1.8时, 该判定条件有效.

1 警示传播算法

F={C1, C2, …, Cm}为CNF公式, 含有n个变元x1, x2, …, xn, 用i代表变元xi.公式F可以用二分图G=(CX, E)表示, 称G为因子图.其中, 变元结点集为X={1, 2, …, n}, 子句结点集为C={C1, C2, …, Cm}.图G中的边分为两类:实边和虚边.

实边:(Ci, j)∈E⇔子句Ci含正文字xj;

虚边:(Ci, j)∈E⇔子句Ci含负文字¬xj.

为了书写方法, 不妨用字母a, b, …分别代表子句C1, C2, ….

· V(a):表示出现在子句a中的变元集合, V(a)=V+(a)∪V-(a).其中,

V+(a):表示出现在子句a中的正文字对应的变元标识集合;

V-(a):表示出现在子句a中的负文字对应的变元标识集合;

V(a)\i:V+(a)-{i}.

· V(j):表示含变元xj的子句集合, V(j)=V+(j)∪V-(j).其中,

V+(j):表示变元xj正出现的子句集合;

V-(j):表示变元xj负出现的子句集合;

V(j)\a:V+(j)-{a}.

$J_j^a$是一个标识参数, 若xj出现在子句a中, 则$J_j^a = - 1$; 若¬xj出现在子句a中, 则$J_j^a = 1$.在因子图的每条边(a, i)上, 定义WP算法中的消息传递uai(常称为警示信息).uai表示子句a的可满足性对变元xi的取值倾向.WP算法的消息更新迭代方程如下:

${u_{a \to i}}(t) = \prod\limits_{j \in V(a)\backslash i} {\theta \left( { - J_j^a\left( {\sum\limits_{b \in V(j)\backslash a} {J_j^b{u_{b \to j}}(t - 1)} } \right)} \right)} $ (1)

t表示迭代次数, θ(x)是截尾函数.如果x≤0, 则θ(x)=0;否则, θ(x)=1.若a中仅包含变元xi, 则置uai=1.当WP算法收敛时, 根据警示信息固定变元xi的赋值:

${H_i} = - \sum\limits_{b \in V(i)} {J_i^bu_{b \to i}^*} $ (2)

如果Hi > 0, 则xi=1;如果Hi < 0, 则xi=0;否则, xi暂不赋值.一般地, 将公式(1)改写为如下形式:

${u_{a \to i}}(t) = \prod\limits_{j \in V(a)\backslash i} {\theta \left( {J_j^a\left( {\sum\limits_{b \in {V^ + }(j)\backslash a} {{u_{b \to j}}(t - 1) - } \sum\limits_{b \in {V^ - }(j)\backslash a} {{u_{b \to j}}(t - 1)} } \right)} \right)} $ (3)

${h_{j \to a}} = \sum\limits_{b \in {V^ + }(j)\backslash a} {{u_{b \to j}}(t - 1) - } \sum\limits_{b \in {V^ - }(j)\backslash a} {{u_{b \to j}}(t - 1)} $ (4)

hja为腔域.若变元xj仅出现在a中, 则置hja=0.求解CNF公式F的WP (warning propagation)算法如下:

Warning Propagation (CNF formula F).

1.构造相应的因子图G(F);

2.给因子图上的所有消息边uai(t=0)随机赋值0或1;

3.重复如下过程, 直到算法收敛(可设置最大迭代步tmax强迫算法结束):

3.1   对G(F)中的边随机排列;

3.2   根据随机边序列, 利用公式(1)更新消息uai;

4.根据Hi计算部分指派ψ, 对公式F进行简化;

5.返回ψ;

WP算法中的收敛, 是指算法某t次迭代得到的信息uai(t)与t-1次的信息uai(t-1)一致.当算法收敛时, 得到警示信息的固定点, 进而可固定部分变元的赋值, 并返回部分指派y; 否则, 算法不收敛, 返回失败.可以看出, 算法的收敛性对算法的性能起关键作用.有如下结论:

定理1[13].如果公式对应的因子图为树型结构, 那么WP算法收敛.

然而, 在带有环的图型结构的因子图实例上, WP算法不总收敛.目前, 对算法收敛性的理论分析仍然不完善.因此, 有必要对WP算法的收敛性给予理论解释.

2 主要结论及证明

警示传播算法是一种迭代算法, 算法的收敛性影响算法的性能.如果警示传播算法能够有效收敛, 则可以用来固定部分变元的赋值, 从而对原问题进行简化.然而, 对于因子图含有回路的实例, 警示传播算法可能不收敛.下面我们给出警示传播算法收敛的充分条件.

定理2.如果非负方阵M的谱半径ρ(M)严格小于1, 则WP算法收敛, 且与初始信息无关.其中, 矩阵M中的元素为${M_{a \to i,a \to i}} = \sqrt 2 \delta ,{M_{a \to i,b \to j}} = {1_{V(j)\backslash a}}(b)\,{1_{V(a)\backslash i}}(j)\,\theta ( - J_j^aJ_j^b)$, 1X(x)是标识函数.若xX, 则1X(x)=1;若xX, 则1X(x)=0, δ为非负常数.

在WP算法中, 信息uai取值为0或1.为了证明定理2, 我们将WP算法的消息取值从{0, 1}松弛为[0, 1].具体地讲:对于因子图的每条边(a, i), 定义消息传递ηai∈[0, 1], 将警示传播算法的消息更新迭代方程(1)更改为

${\eta _{a \to i}}(t) = (\delta {({\eta _{a \to i}}(t - 1))^2} - \delta ({\eta _{a \to i}}(t - 1)) + 1)\prod\limits_{j \in V(a)\backslash i} {\theta \left( { - J_j^a\left( {\sum\limits_{b \in V(j)\backslash a} {J_j^b{\eta _{b \to j}}(t - 1)} } \right)} \right)} $ (5)

其中, δ为非负常数.

相对于公式(1), 在公式(5)中, 我们构造了项H(ηai(t-1))=δ(ηai(t-1))2-δ(ηai(t-1))+1.注意到:当ηai∈{0, 1}时, H(ηai(t-1))=1.进一步, 如果公式(5)中消息ηai(t=0)的初始取值仍然为0或1, 则公式(5)退化为公式(1).我们的想法是:通过分析公式(5)的收敛性来解释公式(1)的收敛性, 进而给出WP算法收敛的有效条件.

设实例的因子图中边的序列集合为D={ai:(a, i)∈E}, 定义向量空间V=[0, 1]|D|, (V, ||·||)是一个赋范空间.设向量xV, l1-范数定义为

$||x|{|_1} = \sum\limits_{i = 1}^{|D|} {|{x_i}|} $ (6)

l-范数定义为

$||x|{|_\infty } = \mathop {\max }\limits_{i \in \{ 1,...,|D|\} } |{x_i}|$ (7)

向量空间V上的范数可诱导一个V上的度量d(v, w)=||v-w||, v, wV.显然, 度量空间(V, d)是完备的[40].设函数f:VV, 如果存在0≤K < 1, 对于任意的v, wV, 使得d(f(v)-f(w))≤Kd(v, w), 则称函数f是压缩函数.如果f:VV是完备度量空间(V, d)中的压缩函数, 那么对于任意的xV, f收敛到唯一固定点x.也即, x, f(x), f2(x), …, x.

引理1.设函数f:VV, dV上的度量.对于某个N, 假设fN是关于d的压缩函数, 那么f收敛到唯一固定点x, 且与初始信息无关.

证明:对于任意的xV, 考虑如下N-1个序列:

$\begin{array}{l} x,{f^N}(x),{f^{2N}}(x),...,\\ f(x),{f^{N + 1}}(x),{f^{2N + 1}}(x),...,\\ {\rm{ }} \vdots \\ {f^{N - 1}}(x),{f^{2N - 1}}(x),{f^{3N - 1}}(x),... \end{array}$

因为fN是关于d的压缩函数, 所以上述每一个序列都收敛到x.因此, 序列x, f(x), f2(x), …一定收敛到x.所以函数f收敛到唯一固定点x, 且与初始信息无关.

设映射A:VV, (V, ||·||)是一个赋范空间, 诱导A的矩阵范数:

$||A|| = \mathop {\sup }\limits_{v \in V} ||Av||$ (8)

||A||1-范数定义为

$||A|{|_1} = \mathop {\max }\limits_{j \in \{ 1,...,|D|\} } \sum\limits_{i = 1}^{|D|} {|{A_{ij}}|} $ (9)

||A||-范数定义为

$||A|{|_\infty } = \mathop {\max }\limits_{i \in \{ 1,...,|D|\} } \sum\limits_{j = 1}^{|D|} {|{A_{ij}}|} $ (10)

证毕.

若函数f:VV可微, 构造雅可比矩阵A.依据中值定理有如下引理.

引理2[40].设(V, ||·||)是赋范空间, 映射f:VV可微, 那么对于任意的x, yV, 有公式(11)成立:

$||f(x) - f(y)|| \le ||x - y|| \cdot \mathop {\sup }\limits_{z \in V} ||f'(z)||$ (11)

根据引理2, 如果$\mathop {\sup }\limits_{z \in V} ||f'(z)|| < 1$, 那么函数f收敛到固定点x.假设算法中的消息更新并行执行, 对于任意的向量ηV, 函数f的分量f(η)ai定义为f(η)ai=ηai.自然, 消息更新方程(5)的并行执行过程可以用函数f的迭代过程来刻画.下面从引理2出发导出WP算法收敛的一个充分条件.

为了求解需要, 我们对公式(5)进行参数化.通过观察, 取sinhλai=ηai, 则公式(5)变为如下形式:

$\sinh {\lambda _{a \to i}}(t) = (\delta {\sinh ^2}{\lambda _{a \to i}}(t - 1) - \delta (\sinh {\lambda _{a \to i}}(t - 1)) + 1)\\\prod\limits_{j \in V(a)\backslash i} {\theta \left( { - J_j^a\sum\limits_{b \in V(j)\backslash a} {J_j^b\sinh {\lambda _{b \to j}}(t - 1)} } \right)} $ (12)

由于ηai∈[0, 1], 所以${\lambda _{a \to i}} \in [0,\log (1 + \sqrt 2 )]$.定义向量空间$V' = {[0,\log (1 + \sqrt 2 )\;]^{|D|}}$, 设函数h:V'→V', 对于任意的向量λV', 函数h的分量h(λ)ai定义为h(λ)ai=lai.设i, jV(a), ij, bV(j)\a.令:

$G({\lambda _{a \to i}}(t - 1)) = \delta {\sinh ^2}{\lambda _{a \to i}}(t - 1) - \delta (\sinh {\lambda _{a \to i}}F({\lambda _{c \to k}}(t - 1)) =\\ \prod\limits_{k \in V(a)\backslash i,j} {\theta \left( { - J_k^a\sum\limits_{c \in V(k)\backslash a} {J_k^c\sinh {\lambda _{c \to k}}(t - 1)} } \right)} (t - 1) + 1$

对函数h求导, 根据公式(12), 我们有:

$(h'(\lambda ))_{b \to j}^{a \to i} = \frac{{\partial {\lambda _{a \to i}}(t)}}{{\partial {\lambda _{b \to j}}(t - 1)}} = \frac{{G({\lambda _{a \to i}}(t - 1)) \cdot F({\lambda _{c \to k}}(t - 1))}}{{\sqrt {1 + {{\sinh }^2}{\lambda _{a \to i}}(t)} }}\theta ( - J_j^aJ_j^b\cosh {\lambda _{b \to j}}(t - 1))$ (13)

注意, 上述是关于变量λbj的求导, 对于所有的子句cV(j)\{a, b}, λcj在公式(12)中均被看作常量.同样, 对于所有的kV(a)\{i, j}, dV(k)\a, λdk也被看做常量处理.令$y({\lambda _{b \to j}}) = - J_j^a\sum\limits_{b \in V(j)\backslash a} {J_j^b\sinh {\lambda _{b \to j}}} $, 考虑到截尾函数θ(·)在公式(12)中的实际作用, 先通过对函数y(λbj)进行求导, 再进行截尾函数θ(·)处理.因此, 公式(12)通过求导后, 截尾函数为$\theta ( - J_j^aJ_j^b\cosh {\lambda _{b \to j}}(t - 1)).$

又因为coshλbj(t-1) > 0, 所以$\theta ( - J_j^aJ_j^b\cosh {\lambda _{b \to j}}(t - 1)) = \theta ( - J_j^aJ_j^b)$.注意到:

$\mathop {\sup }\limits_{\lambda \in {{[0,\log (1 + \sqrt 2 )]}^{|D|}}} \frac{{G({\lambda _{a \to i}}(t - 1)) \cdot F({\lambda _{c \to k}}(t - 1))}}{{\sqrt {1 + {{\sinh }^2}{\lambda _{a \to i}}(t)} }} = 1$ (14)

因此,

$|(h'(\lambda ))_{b \to j}^{a \to i}| = \left| {\frac{{\partial {\lambda _{a \to i}}(t)}}{{\partial {\lambda _{b \to j}}(t - 1)}}} \right| \le \;\theta ( - J_j^aJ_j^b)$ (15)

$\begin{array}{l} h'(\lambda )_{a \to i}^{a \to i} = \frac{{\partial {\lambda _{a \to i}}(t)}}{{\partial {\lambda _{a \to i}}(t - 1)}}\\ {\rm{ }} = \frac{{\delta \cosh {\lambda _{a \to i}}(t - 1)(2\sinh {\lambda _{a \to i}}(t - 1) - 1)\prod\limits_{j \in V(a)\backslash i} {\theta \left( { - J_j^a\sum\limits_{b \in V(j)\backslash a} {J_j^b\sinh {\lambda _{b \to j}}(t - 1)} } \right)} }}{{\sqrt {1 + {{\sinh }^2}{\lambda _{a \to i}}(t)} }}\\ {\rm{ }} \le \delta \cosh {\lambda _{a \to i}}(t - 1)(2\sinh {\lambda _{a \to i}}(t - 1) - 1) \end{array}$ (16)

由于sinhλai=ηai∈[0, 1], 因此$h(\lambda )_{a \to i}^{a \to i} = \frac{{\partial {\lambda _{a \to i}}(t)}}{{\partial {\lambda _{a \to i}}(t - 1)}} \le \delta \cosh {\lambda _{a \to i}}(t - 1).$

又因为$\cosh {\lambda _{a \to i}}(t - 1) = \sqrt {1 + {{\sinh }^2}{\lambda _{a \to i}}(t - 1)} \le \sqrt 2 ,$

所以,

$|(h'(\lambda ))_{a \to i}^{a \to i}| = \left| {\frac{{\partial {\lambda _{a \to i}}(t)}}{{\partial {\lambda _{a \to i}}(t - 1)}}} \right| \le \sqrt 2 \delta $ (17)

根据代数知识, 利用函数h的导数构造雅可比矩阵A.由压缩函数的性质及引理2可知:如果A的范数严格小于1, 则h为压缩函数, 进而收敛到唯一固定点, 且与初始信息无关.有如下结论:

定理3.对于||A||1-范数, 如果

$\mathop {\max }\limits_b \mathop {\max }\limits_{j \in V(b)} \sum\limits_{a \in V(j)\backslash b} {\theta ( - J_j^aJ_j^b)} < 1 - \sqrt 2 \delta $ (18)

则公式(5)在||A||1-范数下收敛, 且与初始信息无关.

证明:根据公式(9)、公式(15)、公式(17), 有:

$||A|{|_1}\; = \;||h'(\lambda )|{|_1} = \mathop {\max }\limits_{b \to j} \sum\limits_{a \to i} {\left| {\frac{{\partial {\lambda _{a \to i}}}}{{\partial {\lambda _{b \to j}}}}} \right|} \le \sqrt 2 \delta + \mathop {\max }\limits_b \mathop {\max }\limits_{j \in V(b)} \sum\limits_{a \in V(j)\backslash b} {\theta ( - J_j^aJ_j^b)} $ (19)

由压缩函数的性质和引理2可知:如果公式(20)成立, 则函数h收敛到唯一固定点, 且与初始信息无关:

$\mathop {\max }\limits_b \mathop {\max }\limits_{j \in V(b)} \sum\limits_{a \in V(j)\backslash b} {\theta ( - J_j^aJ_j^b)} < 1 - \sqrt 2 \delta $ (20)

根据代数知识, 函数f收敛到某一固定点, 且与初始信息无关.所以, 公式(5)在||A||1-范数下收敛, 且与初始信息无关.

同理可证如下结论.

定理4.对于||A||-范数, 如果:

$\mathop {\max }\limits_a \mathop {\max }\limits_{j \in V(a)} \sum\limits_{b \in V(j)\backslash a} {\theta ( - J_j^aJ_j^b)} < 1 - \sqrt 2 \delta $ (21)

则公式(5)在||A||-范数下收敛, 且与初始信息无关.

证明:根据公式(10)、公式(15)、公式(17), 有:

$||A|{|_\infty }\; = \;||h'(\lambda )|{|_\infty } = \mathop {\max }\limits_{a \to i} \sum\limits_{b \to j} {\left| {\frac{{\partial {\lambda _{a \to i}}}}{{\partial {\lambda _{b \to j}}}}} \right|} \le \sqrt 2 \delta + \mathop {\max }\limits_a \mathop {\max }\limits_{j \in V(a)} \sum\limits_{b \in V(j)\backslash a} {\theta ( - J_j^aJ_j^b)} $ (22)

由压缩函数的性质和引理2可知:如果公式(23)成立, 则函数h收敛到唯一固定点, 且与初始信息无关:

$\mathop {\max }\limits_a \mathop {\max }\limits_{j \in V(a)} \sum\limits_{b \in V(j)\backslash a} {\theta ( - J_j^aJ_j^b)} < 1 - \sqrt 2 \delta $ (23)

根据代数知识, 函数f收敛到某一固定点, 且与初始信息无关.所以, 则公式(5)在||A||-范数下收敛, 且与初始信息无关.

M是一个方阵, γ1, …, γnM的特征值, 称γ(M)={γ1, …, γn}为方阵M的谱, ρ(M)=sup{|γi|:γiγ(M)}为方阵M的谱半径.

定理5.设函数h:V'→V'可微, 进一步假设|h'(x)|≤M, M是不依赖于x的非负矩阵.如果ρ(M) < 1, 那么对于任意xV', h收敛到唯一固定点x.也即, x, h(x), h2(x), …, x(注意:|h'(x)|≤M表示由h'(x)构成的雅可比矩阵中的每个元素的绝对值不大于M中对应元素的值).

证明:对于任意的xV', 假设n=1, 2, …, 我们有:

$||({h^n})'(x)|| = \left\| {\prod\limits_{i = 1}^n {h'({h^{i - 1}}(x))} } \right\| = {\left\| {\left| {\prod\limits_{i = 1}^n {h'({h^{i - 1}}(x))} } \right|} \right\|_1} \le {\left\| {\prod\limits_{i = 1}^n {|h'({h^{i - 1}}(x))} |} \right\|_1} \le {\left\| {\prod\limits_{i = 1}^n M } \right\|_1} = ||{M^n}|{|_1}$ (24)

由Gelfand定理[40]:$\mathop {\lim }\limits_{n \to \infty } ||{M^n}||_1^{1/n}\; = \;\rho (M)$.我们选取ε > 0, 使得ρ(M)+ε < 1.对于某个N, ||MN||1=(ρ(M)+ε)N < 1.因此, ||(hN)'(x)|| < 1.所以, ||(hN)(x)||是压缩函数.

由引理1可知:函数h(x)收敛到唯一固定点x, 且与初始信息无关.

对于任意的i, jV(a), ij, bV(j)\a, 定义|D|×|D|的非负方阵M.M中的元素:

${M_{a \to i,a \to i}} = \sqrt 2 \delta ,{M_{a \to i,b \to j}} = {1_{V(j)\backslash a}}(b)\,{1_{V(a)\backslash i}}(j)\,\theta ( - J_j^aJ_j^b).$

其中, 1X(x)是标识函数, 若xX, 则1X(x)=1;若xX, 则1X(x)=0, δ为非负常数.根据公式(15)、公式(17)和定理5, 我们有如下结论:

定理6.如果方阵M的谱半径ρ(M)严格小于1, 则迭代方程(5)式收敛, 且与初始信息无关.

证明:根据公式(15)、公式(17)和定理5, 函数h收敛到唯一固定点, 且与初始信息无关.进一步地, 函数f收敛到唯一固定点, 且与初始信息无关.所以, 方程(5)收敛, 且与初始信息无关.

假设M的特征值γ, 根据代数知识, 我们有:|γ|·||x||=||γx||=||Mx||≤||M||·||x||.因此, 定理6的条件弱于定理3和定理4.

设向量空间V″={0, 1}|D|V, 定义函数g:V″→V″.假设WP算法中的信息更新是并行执行, 对于任意的向量uV″, 函数g的分量g(u)ai定义为g(u)ai=uai.自然, WP算法的执行过程可用函数g的迭代过程来刻画.根据函数fg的构造, 显然, 对于任意的xV″, 有f(x)=g(x).

引理3.如果函数f是一个压缩映射, 那么函数g也为压缩映射.

证明:由于f是一个压缩映射, 对于任意的xV, 存在唯一固定点x, 有x, f(x), f2(x), …, x, 也即:函数f收敛到x, 且与初始信息无关.因此, 对于任意的yV″, 仍然有y, f(y), f2(y), …, x.而当yV″时, 有f(y)=g(y).进而有y, g(y), g2(y), …, x.因此, 函数g为压缩映射, 收敛到固定点x, 且与初始信息无关.

根据定理6和引理3, 至此, 定理2得证.

注意到:定理2中非负矩阵的元素由公式的结构决定.因此, 参数δ的值取决于公式的结构.显然, 对于定理1中的结论, 容易使用定理2来证明.为了方便理解, 下面举例说明定理2的使用.

例1:设CNF公式F1={(x1x2), (x2x3), …, (xn-1xn), (xnx1)}, 其因子图含有一个环.因此, 矩阵M的谱半径$\rho (M) = \sqrt 2 \delta $.若取$0 < \delta < \frac{1}{{\sqrt 2 }}$, 则ρ(M) < 1.根据定理2, 则WP算法在公式F1上收敛.

同样, WP算法在公式F2={(¬x1∨¬x2), (¬x2∨¬x3), …, (¬xn-1∨¬xn), (¬xn∨¬x1)}上也收敛.

3 数值实验及分析

在数值实验中, 使用模型G(n, 3, m)产生随机3-SAT实例, 其中, n表示变元个数, m表示子句个数, 子句大小为3.模型G(n, 3, m)按如下方式产生随机3-SAT实例:随机均匀地在可能的子句(这样的子句共有${2^3} \cdot \left( {\begin{array}{*{20}{c}} n\\ 3 \end{array}} \right)$个)中选择m=αn个子句, 被选中的子句之集构成实例.在算法中, 取最大迭代次数tmax=103.

我们选取G(n, 3, m)随机实例进行模拟实验.图 1是WP算法分别在变元规模n=20, n=40, n=60上的运行情况.图 1(a)是算法的收敛性随着约束参数α的变化情况, 图 1(b)是算法的计算时间随着约束参数α的变化情况.图中每个数据点由G(n, 3, m)模型产生的100个随机实例构成.可以看出:当参数α < 3.5时, WP算法高概率收敛; 当α > 4.5时, 算法高概率不收敛.在α > ≈3.5点, WP算法的收敛性发生了突变.同样, 当参数α < 3.5时, WP算法的运行时间较小; 当α > 3.5时, WP算法的运行时间突然增大.

Fig. 1 Change of convergence probability and time of WP with parameter α 图 1 WP算法的收敛性和计算时间随约束参数α的变化情形

对于随机3-SAT实例, α是重要的参数, 它影响实例的可满足性和判定难度.存在可满足性的相变点ad, 当α < ad时, 实例高概率可满足; 当α > ad时, 实例高概率不可满足.同时, 存在第2相变点ac, a < ac为易解SAT区域, a > ac为难解SAT区域.大量的材料表明:ad至少为3.52, 至多为4.506, ac≃3.921.注意到, WP算法在3.52 < α < 4.506区域的收敛情况不能从概率上给出确切的回答.因此, 警示传播算法能够有效判定的随机3-SAT实例最多为α < 3.52区域.从图 1(a)中可以看出:随着问题规模n的增大, WP算法在G(n, 3, m)实例上收敛的概率趋向于一个稳定值, 即, 收敛的概率曲线随着n的增大几乎趋于不变.我们知道, 因子图的结构直接影响WP算法的收敛性.事实上, 当参数α > ac时, G(n, 3, m)模型产生的随机实例的因子图结构比较复杂, 求解难度较大.从图 1(b)中我们也可以看出:大约在α > 3.5处, 算法的运行时间急剧上升.

为了验证定理2中的判定条件, 我们分别取了n=20和n=60的G(n, 3, m)实例数据集进行模拟实验.从图 2中可以看出:当α < 1.8时, 定理2能够判定WP算法的收敛性.事实上, 文献[39]已经表明:当约束参数α较小时, G(n, 3, m)实例的因子图的结构内部呈现树形状.因此, 根据定理2, 容易判定WP算法收敛.随着α的增大, 因子图结构中开始出现圈, 并且圈的数量随着α的进一步增大而急剧增加.由于定理2中的非负矩阵的元素构成与因子图的结构有关, 当因子图的结构变得复杂时, 非负矩阵的谱半径不再小于1.这时, 定理2中的判定条件失效.如图 2所示:当α > 1.8时, 定理2中的判定条件逐渐失效.

Fig. 2 Results of Th.2 图 2 定理2的实验结果

如果一个因子图包含环, 且只含正文字或只含负文字的实例F, 根据定理2容易判断, 则WP算法在F上收敛.我们分别选取3组不同变元规模的由G(n, 3, m)模型产生的随机3SAT可满足实例进行实验模拟, 这里取α=2.0.这些实例只含正文字或只含负文字, 每组数据有200个实例(其中, 有100个只包含正文字的实例和100个只包含负文字的实例).实验结果表明:在这种随机实例上, WP算法收敛.表 1是WP算法的收敛情况统计表.用符号“+”表示只含正文字的实例; 用符号“-”表示只含负文字的实例.Var_num表示实例的变元规模, Instance表示实例集, Convergence表示WP算法收敛的概率.

Table 1 The convergence of WP (Theory 2) 表 1 WP算法的收敛情况(定理2)

4 结束语

本文分析了WP算法的收敛性, 通过引入参数, 将WP算法的信息取值从{0, 1}松弛为[0, 1], 利用向量空间中压缩函数的性质, 给出了WP算法收敛的一个充分条件.大量的实验结果表明, 该方法有效.同时, 该方法提供了理解WP算法性能的理论依据, 并为分析其他信息传播算法的收敛性奠定了理论基础.进一步工作是:给出WP算法更弱的收敛条件.

参考文献
[1] Martin D, Alan F, Michael M. A probabilistic analysis of randomly generated binary constraint satisfaction. Theory Computer Science, 2003, 290 :1815–1828. [doi:10.1016/S0304-3975(02)00317-1]
[2] Creignou N, Eaude H. The SAT-UNSAT transition for random constraint satisfaction problems. Discrete Mathematics, 2009, 309 :2085–2099. [doi:10.1016/j.disc.2008.04.025]
[3] Martin OC, Monasson R, Zecchina R. Statistical mechanics methods and phase transitions in optimization. Theory Computer Science, 2001, 265 :3–67. [doi:10.1016/S0304-3975(01)00149-9]
[4] Kirkpatrick S, Selman B. Critical behavior in the satisfiability of random Boolean formulae. Science, 1994, 264 (5163) :1297–1301. [doi:10.1126/science.264.5163.1297]
[5] Mertens S, Mezard M, Zecchina R. Threshold values of random k-SAT from the cavity method. Random Structure Algorithms, 2006, 28 :340–373. [doi:10.1002/rsa.v28:3]
[6] Kaporis A, Kirousis L, Lalas E. The probabilistic analysis of a greedy satisfiability algorithm. Random Structures & Algorithms, 2006, 28 (4) :444–480. [doi:10.1002/rsa.v28:4]
[7] Dubois O, Boufkhad Y, Mandler J. Typical random 3-sat formulae and the satisfiability threshold. Electronic Colloquium on Computational Complexity, 2003, 10 (007) :1–2. http://cn.bing.com/academic/profile?id=1978732816&encoded=0&v=paper_preview&mkt=zh-cn
[8] Moskewicz MW, Madigan CF, Zhao Y. Chaff:Engineering an efficient SAT solver. In:Proc. of the 38th Annual Design Automation Conf. New York:ACM Press, 2001. 530-535.[doi:10.1145/378239.379017]
[9] Aurell E, Gordon U, Kirkkpatrick S. Comparing beliefs, surveys, and random walks. Advances in Neural Information Processing Systems, 2004, 17 (1) :1–8. http://cn.bing.com/academic/profile?id=2139955802&encoded=0&v=paper_preview&mkt=zh-cn
[10] Mezard M, Parisi G. The cavity method at zero temperature. Journal of Statistical Physics, 2003, 111 (1-2) :1–34. http://cn.bing.com/academic/profile?id=1622584740&encoded=0&v=paper_preview&mkt=zh-cn
[11] Mezard M, Zecchina R. Random k-satisifability problem:From an analytic solution to an efficient algorithm. Physical Review E, 2002, 66 (5) :056126. [doi:10.1103/PhysRevE.66.056126]
[12] Maneva E, Mossel E, Wainwright M. A new look at survey propagation and its generalizations. Journal of the ACM, 2007, 54 (4) :1089–1098. http://cn.bing.com/academic/profile?id=2081642252&encoded=0&v=paper_preview&mkt=zh-cn
[13] Braunstein A, Mezard M, Zecchina R. Survey propagation:An algorithm for satisfiability. Random Structures and Algorithms, 2005, 27 (2) :201–226. [doi:10.1002/(ISSN)1098-2418]
[14] Yedidia JS, Freeman WT, Weiss Y. Understanding belief propagation and its generalizations. Artificial Intelligence, 2003, 8 (1) :239–269. http://cn.bing.com/academic/profile?id=2019599312&encoded=0&v=paper_preview&mkt=zh-cn
[15] Braunstein A, Zecchina R. Survey and belief propagation on random k-SAT. Lecture Notes in Computer Science, 2004, 2919 (1) :519–528. http://cn.bing.com/academic/profile?id=1753783230&encoded=0&v=paper_preview&mkt=zh-cn
[16] Xu K, Li W. Exact phase transitions in random constraint satisfaction problems. Journal of Artificial Intelligence Research, 2000, 12 (1) :93–103. http://cn.bing.com/academic/profile?id=2139300273&encoded=0&v=paper_preview&mkt=zh-cn
[17] Xu K, Li W. Many hard examples in exact phase transitions. Theory Computer Science, 2006, 355 (1) :291–302. [doi:10.1016/j.tcs.2006.01.001]
[18] Xu K, Boussemart F, Hemery F, Lecoutre C. Random constraint satisfaction:Easy generation of hard instances. Artificial Intelligence, 2007, 171 (1) :514–534. [doi:10.1016/j.artint.2007.04.001]
[20] Yin MH, Zhou JP, Sun JG, Gu W. Heuristic survey propagation algorithm for solving QBF problem. Ruan Jian Xue Bao/Journal of Software, 2011, 22 (7) :1538–1550(in Chinese with English abstract). http://www.jos.org.cn/ch/reader/view_abstract.aspx?flag=1&file_no=3859&journal_id=jos [doi:10.3724/SP.J.1001.2011.03859]
[21] Ravanbakhsh S, Greiner R. Perturbed message passing for constraint satisfaction problems. Artificial Intelligence, 2014. arXiv:1401.6686
[22] Chieu HL, Lee WS. Relaxed survey propagation for the weighted maximum satisfiability problem. Journal of Artificial Intelligence Research, 2009, 36 :229–266. http://cn.bing.com/academic/profile?id=2131529421&encoded=0&v=paper_preview&mkt=zh-cn
[23] Bayati M, Shah D, Sharma M. Max product for maximum weight matching:Convergence, correctness, and LP duality. IEEE Trans. on Information Theory, 2007, 54 (3) :1241–1251. http://cn.bing.com/academic/profile?id=2170987079&encoded=0&v=paper_preview&mkt=zh-cn
[24] Coja-Oghlan A, Mossel E, Vilenchik D. A spectral approach to analyzing belief propagation for 3-colouring. Combinatorics, Probability and Computing, 2009, 18 (6) :881–912. [doi:10.1017/S096354830900981X]
[25] Gamarnik D, Shah D, Wei Y. Belief propagation for min-cost network flow:Convergence and correctness. Operations Research, 2012, 60 (2) :410–428. [doi:10.1287/opre.1110.1025]
[26] Sanghavi S, Malioutov DM, Willsky AS. Belief propagation and LP relaxation for weighted matching in general graphs. IEEE Trans. on Information Theory, 2011, 57 (4) :2203–2212. [doi:10.1109/TIT.2011.2110170]
[27] Sanghavi S, Shah D, Willsky AS. Message passing for maximum weight independent set. IEEE Trans. on Information Theory, 2009, 55 (11) :4822–4834. [doi:10.1109/TIT.2009.2030448]
[28] Kschischang F, Frey B, Loeliger H. Factor graph and the sum-product algorithm. Information Theory, 2001, 47 (1) :498–519. http://cn.bing.com/academic/profile?id=2137813581&encoded=0&v=paper_preview&mkt=zh-cn
[29] Weiss Y. Correctness of local probability propagation in graphical models with loops. Neural Computation, 2000, 12 (1) :1–41. [doi:10.1162/089976600300015880]
[30] Weiss Y, Freeman WT. Correctness of belief propagation in Gaussian graphical models of arbitrary topology. Neural Computation, 2001, 13 (10) :2173–2200. [doi:10.1162/089976601750541769]
[31] Tatikonda S, Jordan MI. Loopy belief propagation and Gibbs measure. In:Proc. of the 18th Annual Conf. on Uncertainty in Artificial Intelligence. 2002. 493-500.
[32] Heskes T. On the uniqueness of loopy belief propagation fixed points. Neural Computation, 2004, 16 :2379–2413. [doi:10.1162/0899766041941943]
[33] Ihler AT. Loopy belief propagation:Convergence and effects of message errors. Machine Learning Research, 2005, 6 :905–936. http://cn.bing.com/academic/profile?id=2163364417&encoded=0&v=paper_preview&mkt=zh-cn
[34] Mooij JM, Kappen HJ. Sufficient conditions for convergence of the sum-product algorithm. IEEE Trans. on Information Theory, 2007, 53 :4422–4437. [doi:10.1109/TIT.2007.909166]
[35] Shi XQ, Schonfeld D, Tuninetti D. Message error analysis of loopy belief propagation for the sum-product algorithm. Computer and Information Science, 2010, 1009 :1–30. http://cn.bing.com/academic/profile?id=2128604234&encoded=0&v=paper_preview&mkt=zh-cn
[36] Brunsch T, Cornelissen K, Manthey B, Roglin H. Smoothed analysis of BP for minimum cost flow and matching. Journal of Graph Algorithms and Applications, 2013, 17 (6) :647–670. [doi:10.7155/jgaa.00310]
[37] Norshams N, Wainwright MJ. Stochastic belief propagation:A low complexity alternative to the sum product algorithm. IEEE Trans. on Information Theory, 2013, 59 (4) :1981–2000. [doi:10.1109/TIT.2012.2231464]
[38] Feige U, Mossel E, Vilenchik D. Complete convergence of message passing algorithms for some satisfiability problems. Theory of Computing, 2013, 9 (19) :617–651. [doi:10.4086/toc.2013.v009a019]
[39] Wang XF, Xu DY, Wei L. Convergence of warning propagation algorithms for random satisfiable instances. Ruan Jian Xue Bao/Journal of Software, 2013, 24 (1) :1–11(in Chinese with English abstract). http://www.jos.org.cn/ch/reader/view_abstract.aspx?flag=1&file_no=4213&journal_id=jos [doi:10.3724/SP.J.1001.2013.04213]
[40] Dieudonné J. Foundations of Modern Analysis. New York: Academic Press, 1969 .
[19] 赵春艳, 郑志明. 一种基于变量熵求解约束满足问题的置信传播算法. 中国科学(F:信息科学), 2012, 42(9): 1170–1180. [doi:10.1360/112011-693]
[20] 殷明浩, 周俊萍, 孙吉贵, 谷文祥. 求解QBF问题的启发式调查传播算法. 软件学报, 2011, 22(7): 1538–1550. http://www.jos.org.cn/ch/reader/view_abstract.aspx?flag=1&file_no=3859&journal_id=jos [doi:10.3724/SP.J.1001.2011.03859]
[39] 王晓峰, 许道云, 韦立. 随机可满足实例集上警示传播算法的收敛性. 软件学报, 2013, 24(1): 1–11. http://www.jos.org.cn/ch/reader/view_abstract.aspx?flag=1&file_no=4213&journal_id=jos [doi:10.3724/SP.J.1001.2013.04213]