• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

作为随机优化的王-兰道算法及其加速

Wang-Landau algorithm as stochastic optimization and its acceleration.

作者信息

Dai Chenguang, Liu Jun S

机构信息

Department of Statistics, Harvard University, Cambridge, Massachusetts, USA.

出版信息

Phys Rev E. 2020 Mar;101(3-1):033301. doi: 10.1103/PhysRevE.101.033301.

DOI:10.1103/PhysRevE.101.033301
PMID:32289991
Abstract

We show that the Wang-Landau algorithm can be formulated as a stochastic gradient descent algorithm minimizing a smooth and convex objective function, of which the gradient is estimated using Markov chain Monte Carlo iterations. The optimization formulation provides us another way to establish the convergence rate of the Wang-Landau algorithm, by exploiting the fact that almost surely the density estimates (on the logarithmic scale) remain in a compact set, upon which the objective function is strongly convex. The optimization viewpoint motivates us to improve the efficiency of the Wang-Landau algorithm using popular tools including the momentum method and the adaptive learning rate method. We demonstrate the accelerated Wang-Landau algorithm on a two-dimensional Ising model and a two-dimensional ten-state Potts model.

摘要

我们证明,王-兰道算法可以被表述为一种随机梯度下降算法,用于最小化一个光滑且凸的目标函数,其梯度通过马尔可夫链蒙特卡罗迭代来估计。这种优化表述为我们提供了另一种途径来确定王-兰道算法的收敛速度,这是通过利用这样一个事实:几乎必然地,(在对数尺度上的)密度估计值会保持在一个紧致集内,而目标函数在该紧致集上是强凸的。从优化的角度出发,促使我们使用包括动量法和自适应学习率法等常用工具来提高王-兰道算法的效率。我们在二维伊辛模型和二维十态Potts模型上展示了加速的王-兰道算法。

相似文献

1
Wang-Landau algorithm as stochastic optimization and its acceleration.作为随机优化的王-兰道算法及其加速
Phys Rev E. 2020 Mar;101(3-1):033301. doi: 10.1103/PhysRevE.101.033301.
2
Wang-Landau Monte Carlo-based tracking methods for abrupt motions.基于王-兰德蒙特卡罗的突变运动跟踪方法。
IEEE Trans Pattern Anal Mach Intell. 2013 Apr;35(4):1011-24. doi: 10.1109/TPAMI.2012.161.
3
Accuracy and convergence of the Wang-Landau sampling algorithm.王-兰道抽样算法的准确性与收敛性。
Phys Rev E Stat Nonlin Soft Matter Phys. 2007 Aug;76(2 Pt 2):026701. doi: 10.1103/PhysRevE.76.026701. Epub 2007 Aug 1.
4
Incorporating configurational-bias Monte Carlo into the Wang-Landau algorithm for continuous molecular systems.将构形偏差蒙特卡罗纳入连续分子系统的 Wang-Landau 算法中。
J Chem Phys. 2012 Nov 28;137(20):204105. doi: 10.1063/1.4766354.
5
Determination of the conformal-field-theory central charge by the Wang-Landau algorithm.通过 Wang-Landau 算法确定共形场论的中心荷。
Phys Rev E. 2017 Jun;95(6-1):063308. doi: 10.1103/PhysRevE.95.063308. Epub 2017 Jun 14.
6
Combination of improved multibondic method and the Wang-Landau method.改进的多键方法与王-朗道方法的结合。
Phys Rev E Stat Nonlin Soft Matter Phys. 2002 May;65(5 Pt 2):056710. doi: 10.1103/PhysRevE.65.056710. Epub 2002 May 22.
7
Overcoming the slowing down of flat-histogram Monte Carlo simulations: cluster updates and optimized broad-histogram ensembles.克服扁平直方图蒙特卡罗模拟的减速:簇更新与优化的宽直方图系综
Phys Rev E Stat Nonlin Soft Matter Phys. 2005 Oct;72(4 Pt 2):046704. doi: 10.1103/PhysRevE.72.046704. Epub 2005 Oct 4.
8
Control of accuracy in the Wang-Landau algorithm.Wang-Landau 算法中的精度控制。
Phys Rev E. 2017 Oct;96(4-1):043307. doi: 10.1103/PhysRevE.96.043307. Epub 2017 Oct 18.
9
Optimal modification factor and convergence of the Wang-Landau algorithm.王-兰道算法的最优修正因子与收敛性
Phys Rev E Stat Nonlin Soft Matter Phys. 2008 Oct;78(4 Pt 2):046705. doi: 10.1103/PhysRevE.78.046705. Epub 2008 Oct 20.
10
Adaptive Restart of the Optimized Gradient Method for Convex Optimization.用于凸优化的优化梯度法的自适应重启
J Optim Theory Appl. 2018 Jul;178(1):240-263. doi: 10.1007/s10957-018-1287-4. Epub 2018 May 7.