• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

关于矢量量化算法中能量函数的可微性。

Concerning the differentiability of the energy function in vector quantization algorithms.

作者信息

Lepetz Dominique, Némoz-Gaillard Max, Aupetit Michaël

机构信息

EMA-DM, 6 Av. de Clavières, 30319 Alès cedex, France.

出版信息

Neural Netw. 2007 Jul;20(5):621-30. doi: 10.1016/j.neunet.2006.11.006. Epub 2007 Apr 9.

DOI:10.1016/j.neunet.2006.11.006
PMID:17416485
Abstract

The adaptation rule of Vector Quantization algorithms, and consequently the convergence of the generated sequence, depends on the existence and properties of a function called the energy function, defined on a topological manifold. Our aim is to investigate the conditions of existence of such a function for a class of algorithms including the well-known 'K-means' and 'Self-Organizing Map' algorithms. The results presented here extend several previous studies and show that the energy function is not always a potential but at least the uniform limit of a series of potential functions which we call a pseudo-potential. It also shows that a large number of existing vector quantization algorithms developed by the Artificial Neural Networks community fall into this class. The framework we define opens the way to studying the convergence of all the corresponding adaptation rules at once, and a theorem gives promising insights in that direction.

摘要

矢量量化算法的自适应规则,以及由此产生的序列的收敛性,取决于一个定义在拓扑流形上的称为能量函数的函数的存在性和性质。我们的目的是研究包括著名的“K均值”和“自组织映射”算法在内的一类算法中这种函数的存在条件。这里给出的结果扩展了先前的几项研究,并表明能量函数并不总是一个势函数,但至少是我们称为伪势的一系列势函数的一致极限。它还表明,人工神经网络社区开发的大量现有矢量量化算法都属于这一类。我们定义的框架为一次性研究所有相应自适应规则的收敛性开辟了道路,并且一个定理在该方向上给出了有前景的见解。

相似文献

1
Concerning the differentiability of the energy function in vector quantization algorithms.关于矢量量化算法中能量函数的可微性。
Neural Netw. 2007 Jul;20(5):621-30. doi: 10.1016/j.neunet.2006.11.006. Epub 2007 Apr 9.
2
Nonlinear complex-valued extensions of Hebbian learning: an essay.赫布学习的非线性复值扩展:一篇论文。
Neural Comput. 2005 Apr;17(4):779-838. doi: 10.1162/0899766053429381.
3
An augmented CRTRL for complex-valued recurrent neural networks.用于复值递归神经网络的增强型控制
Neural Netw. 2007 Dec;20(10):1061-6. doi: 10.1016/j.neunet.2007.09.015. Epub 2007 Sep 22.
4
Closed-form expressions of some stochastic adapting equations for nonlinear adaptive activation function neurons.用于非线性自适应激活函数神经元的一些随机自适应方程的闭式表达式。
Neural Comput. 2003 Dec;15(12):2909-29. doi: 10.1162/089976603322518795.
5
Distance learning in discriminative vector quantization.判别式矢量量化中的远程学习。
Neural Comput. 2009 Oct;21(10):2942-69. doi: 10.1162/neco.2009.10-08-892.
6
Convergence analysis of online gradient method for BP neural networks.BP 神经网络在线梯度法的收敛性分析。
Neural Netw. 2011 Jan;24(1):91-8. doi: 10.1016/j.neunet.2010.09.007. Epub 2010 Sep 16.
7
Stability of Cohen-Grossberg neural networks with time-varying delays.具有时变延迟的Cohen-Grossberg神经网络的稳定性
Neural Netw. 2007 Oct;20(8):868-73. doi: 10.1016/j.neunet.2007.07.005. Epub 2007 Jul 28.
8
Self-organizing maps with dynamic learning for signal reconstruction.用于信号重构的具有动态学习功能的自组织映射
Neural Netw. 2007 Mar;20(2):274-84. doi: 10.1016/j.neunet.2006.12.002. Epub 2006 Dec 20.
9
Information geometry of U-Boost and Bregman divergence.U-Boost的信息几何与布雷格曼散度
Neural Comput. 2004 Jul;16(7):1437-81. doi: 10.1162/089976604323057452.
10
Performance analysis of LVQ algorithms: a statistical physics approach.学习向量量化(LVQ)算法的性能分析:一种统计物理学方法。
Neural Netw. 2006 Jul-Aug;19(6-7):817-29. doi: 10.1016/j.neunet.2006.05.010. Epub 2006 Jun 16.