协同优化算法

来自testwiki
imported>InternetArchiveBot2019年10月24日 (四) 13:03的版本 (补救0个来源,并将3个来源标记为失效。) #IABot (v2.0)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳转到导航 跳转到搜索

协同优化算法的原理是将一复杂的目标函数分解成简单的子目标函数,然后再将这些子目标函数进行协同优化。具体说来,协同优化是在优化每一子目标函数同时综合考虑其它子目标函数的结果,使子目标函数之间的优化结果能够一致。优化结果一致是指使每一变量的值在每一子目标函数的优化结果中能够一致。一般来说,可以证明,如果变量的值一致则为最优解。协同优化算法没有局部最优问题同时具有非常良好的收敛特性。 它很好地解决了许多实际中非线性优化及组合优化难题。

如果目标函数是一n个变量的函数E(x1,x2,,xn),简写成E(x),协同优化算法先将它分解成n个简单的子目标函数:

E(x)=E1(x)+E2(x)++En(x).

如果单独优化每一子目标函数,则它们的结果很难达到一致。例如,变量xi在包含它的子目标函数中的最优解值很难相同。对于i=1,2,,n,如果我们取Ei(x)的最优解中xi的值作为该变量的值,表示成x~i,

x~i=argminximinXixiEi(x),这里,XiEi(x)的变量集,Xixi指变量集Xi除去元素xi

(x~1,x~2,,x~n)则很难为原目标函数E(x)的最优解。

为了使子目标函数之间的优化结果能够一致,协同优化算法在优化每一子目标函数Ei(x)同时考虑其它子目标函数的结果,

Ψj(xj)=minXjxjEj(x)

具体做法是利用其它子目标函数的优化结果通过数值加权修正每一个子目标函数如下,

(1λ)Ei(x)+λkjwijΨj(xj),这里,λk,wij为加权系数,满足0λk,wij1

然后对修正后的子目标函数进行优化,优化结果再叠代放入修正的子目标函数中。协同优化算法的叠代方程如下,

Ψi(k)(xi)=minXixi((1λk)Ei(x)+λkjwijΨj(k1)(xj)),fori=1,2,,n.

协同优化结果使每一变量的值在每一子目标函数的优化结果中达到一致。如果一致,则子目标函数的优化解既为最优解。

理论价值

现代优化理论中最重要的未解难题是发现通用的全局最优化条件。由于没有全局最优化条件,我们不知道哪里可以找到最优解,也不知道现有解是不是最优解. 因此,我们不知道如何更有效地组织优化过程及何时及时中断搜索。任何全局最优化条件既有理论意义和实用价值。协同优化算法基于一种全新的优化原理解决了这一重要问题。

协同优化理论及量子力学的关系

从协同优化算法可以推导出薛定谔方程

假设目标能量函数为

E(x1,x2,,xn)=i=1n(ei(xi)+j:j>ineij(xi,xj)),whereeij(xi,xj)=eji(xj,xi).

协同优化算法在半环(C,+,×)上的形式为

ψi(xi,t+Δt)=1Zi(t+Δt)ψi(xi,t)e(Δt/)ei(xi)j,j=idxje(Δt/)eij(xi,xj)|ψj(xj,t)|2,

如果让Δt0+及用高斯函数平滑ψi(xi,t),则上式收敛后变成薛定谔方程如下:

Eiψi(xi,t)=(22mii2+Vi(xi))ψi(xi,t);

这里

Vi(xi)=ei+j,j=idxjeij|ψj(xj,t)|2.

薛定谔方程是物理学中最基本的方程。因此,我们可以对自然界中一般分子及蛋白分子如何形成这一非线性优化问题从全局优化的角度有进一步更深的认识。


参考文献

  • X. Huang, “Deriving the Normalized Min-Sum Algorithm from Cooperative Optimization”, accepted by IEEE Information Theory Workshop, Chengdu, China, 2006 (网上下载Template:Dead link).
  • X. Huang, ``The cooperative optimization metaheuristic: Inspiration from nature and applications, Computational Intelligence, ICIC 2005, Springer-Verlag, LNAI 4114, 2006, pp. 1246--1251.
  • X. Huang, ``A general extension of constraint propagation for constraint optimization, Principles of Practice of Constraint Programming - CP 2004, Spinger-Verlag, LNCS 3258, 2004, pp. 737--741.
  • X. Huang, ``Near perfect decoding of LDPC codes, Proceedings of IEEE International Symposium on Information Theory (ISIT), 2005, pp. 302--306 (网上下载Template:Dead link).
  • X. Huang, “A New Kind of Hopfield Networks for Finding Global Optimum”, International Joint Conference on Neural Networks, Montreal, Canada, 2005, pp.764-769 (网上下载Template:Dead link).
  • X. Huang, ``Cooperative optimization for solving large scale combinatorial problems, Theory and Algorithms for Cooperative Systems, Series on Computers and Operations Research, World Scientific, 2004, pp. 117--156 (ISBN 981-256-020-3).
  • X. Huang, ``Image segmentation by cooperative optimization, IEEE International Conference on Image Processing (ICIP), Singapore, 2004, pp. 945--948.
  • X. Huang, ``Cooperative optimization for energy minimization in computer vision: A case study of stereo matching, Pattern Recognition, 26th DAGM Symposium, Springer-Verlag, LNCS 3175, 2004, pp. 302--309.
  • X. Huang, ``A general framework for constructing cooperative global optimization algorithms, Frontiers in Global Optimization, Nonconvex Optimization and Its Applications, Kluwer Academic Publishers, 2004, pp. 179--221 (ISBN 1-4020-7699-1).
  • X. Huang, “A Polynomial Time Algorithm for Solving NP-hard Problems in Practice”, ACM SIGACT Volume 34, Issue 1, March 2003, pp. 101-108.
  • X. Huang, “A Cooperative Search Approach for Global Optimization”, Oral Presentation at the First International Conference on Optimization Methods and Software, Hangzhou, China, 2002.
  • 黄晓非,丁溯泉,杨知行,吴佑寿,"GF(q)域上的低密度校验(LDPC)码的译码及其在深空通讯中的应用",飞行器测控学报",第25卷,第2期,2006年4月.