• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

通过使用收敛和发散进行预处理来增加神经网络的存储容量。

Increase of storage capacity of neural networks by preprocessing using convergence and divergence.

作者信息

Orzó L

机构信息

Department of Anatomy, Semmelweis University Medical School, Budapest, Hungary.

出版信息

Acta Biochim Biophys Hung. 1991;26(1-4):127-30.

PMID:1844796
Abstract

The greatest practical limitation of the associative memory models, especially the Hopfield model is the low storage capacity. It has been shown by Gardner, that the Hopfield type models storage limit is 2*N, where N is the number of the processing elements or neurons. For biased patterns, on the other hand, it is much greater. But in general the input patterns are not biased. To approach to this problem and to increase the storage capacity of the model, the input patterns have to be diluted by some conversion method particularly which uses convergence and divergence in neuroanatomical sense. Based on this model these parameters can be estimated. As a consequence of this bias and the divergence, the storage capacity is increased. This preprocessing method doesn't lead to the loss of information and keeps the error correcting ability of the model.

摘要

关联记忆模型,尤其是霍普菲尔德模型,最大的实际局限性在于存储容量较低。加德纳已经证明,霍普菲尔德型模型的存储极限是2*N,其中N是处理元件或神经元的数量。另一方面,对于有偏模式,存储极限要大得多。但一般来说,输入模式是无偏的。为了解决这个问题并提高模型的存储容量,必须通过某种转换方法对输入模式进行稀释,特别是那种在神经解剖学意义上使用收敛和发散的方法。基于这个模型,可以估计这些参数。由于这种偏差和发散,存储容量得以增加。这种预处理方法不会导致信息丢失,并保留了模型的纠错能力。

相似文献

1
Increase of storage capacity of neural networks by preprocessing using convergence and divergence.通过使用收敛和发散进行预处理来增加神经网络的存储容量。
Acta Biochim Biophys Hung. 1991;26(1-4):127-30.
2
Network capacity analysis for latent attractor computation.用于潜在吸引子计算的网络容量分析。
Network. 2003 May;14(2):273-302.
3
Information and topology in attractor neural networks.吸引子神经网络中的信息与拓扑结构。
Neural Comput. 2007 Apr;19(4):956-73. doi: 10.1162/neco.2007.19.4.956.
4
Enhanced storage capacity with errors in scale-free Hopfield neural networks: An analytical study.具有无标度霍普菲尔德神经网络误差的增强存储容量:一项分析研究。
PLoS One. 2017 Oct 27;12(10):e0184683. doi: 10.1371/journal.pone.0184683. eCollection 2017.
5
Associative morphological memories based on variations of the kernel and dual kernel methods.基于核方法和对偶核方法变体的联想形态记忆。
Neural Netw. 2003 Jun-Jul;16(5-6):625-32. doi: 10.1016/S0893-6080(03)00113-8.
6
Self-consistent signal-to-noise analysis of Hopfield model with unit replacement.具有单元替换的 Hopfield 模型的自洽信噪比分析。
Neural Netw. 2010 Dec;23(10):1180-6. doi: 10.1016/j.neunet.2010.06.006. Epub 2010 Jun 25.
7
Neural networks in forensic science.法医学中的神经网络。
J Forensic Sci. 1992 Jan;37(1):252-64.
8
Global asymptotic stability of neural networks with discontinuous activations.具有不连续激活函数的神经网络的全局渐近稳定性
Neural Netw. 2009 Sep;22(7):931-7. doi: 10.1016/j.neunet.2009.04.004. Epub 2009 Apr 22.
9
Memory capacity for sequences in a recurrent network with biological constraints.具有生物限制的循环网络中序列的记忆容量。
Neural Comput. 2006 Apr;18(4):904-41. doi: 10.1162/089976606775774714.
10
Maximum memory capacity on neural networks with short-term synaptic depression and facilitation.具有短期突触抑制和易化作用的神经网络的最大记忆容量。
Neural Comput. 2009 Mar;21(3):851-71. doi: 10.1162/neco.2008.02-08-719.