• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

并行霍普菲尔德网络

Parallel Hopfield networks.

作者信息

Wilson Robert C

机构信息

Department of Bioengineering, University of Pennsylvania, Philadelphia, PA 19103, USA.

出版信息

Neural Comput. 2009 Mar;21(3):831-50. doi: 10.1162/neco.2008.03-07-496.

DOI:10.1162/neco.2008.03-07-496
PMID:18928366
Abstract

We introduce a novel type of neural network, termed the parallel Hopfield network, that can simultaneously effect the dynamics of many different, independent Hopfield networks in parallel in the same piece of neural hardware. Numerically we find that under certain conditions, each Hopfield subnetwork has a finite memory capacity approaching that of the equivalent isolated attractor network, while a simple signal-to-noise analysis sheds qualitative, and some quantitative, insight into the workings (and failures) of the system.

摘要

我们引入了一种新型神经网络,称为并行霍普菲尔德网络,它能够在同一神经硬件中同时并行地影响许多不同的、独立的霍普菲尔德网络的动力学。通过数值计算我们发现,在某些条件下,每个霍普菲尔德子网络都具有有限的存储容量,接近等效孤立吸引子网络的存储容量,而简单的信噪比分析为系统的运行(和故障)提供了定性以及一些定量的见解。

相似文献

1
Parallel Hopfield networks.并行霍普菲尔德网络
Neural Comput. 2009 Mar;21(3):831-50. doi: 10.1162/neco.2008.03-07-496.
2
Effects of delays on the basin boundary of attraction in a hopfield network of two delay-connecting neurons.延迟对由两个具有延迟连接的神经元组成的霍普菲尔德网络中吸引子盆地边界的影响。
Nonlinear Dynamics Psychol Life Sci. 2009 Apr;13(2):161-80.
3
Network capacity analysis for latent attractor computation.用于潜在吸引子计算的网络容量分析。
Network. 2003 May;14(2):273-302.
4
Efficient continuous-time asymmetric Hopfield networks for memory retrieval.高效连续时间非对称 Hopfield 网络用于记忆检索。
Neural Comput. 2010 Jun;22(6):1597-614. doi: 10.1162/neco.2010.05-09-1014.
5
Energy minimization in the nonlinear dynamic recurrent associative memory.非线性动态递归联想记忆中的能量最小化
Neural Netw. 2008 Sep;21(7):1041-4. doi: 10.1016/j.neunet.2008.06.005. Epub 2008 Jun 25.
6
A robust method for distinguishing between learned and spurious attractors.一种区分习得吸引子和虚假吸引子的稳健方法。
Neural Netw. 2004 Apr;17(3):313-26. doi: 10.1016/j.neunet.2003.11.007.
7
Mixed states on neural network with structural learning.具有结构学习的神经网络上的混合态。
Neural Netw. 2004 Jan;17(1):103-12. doi: 10.1016/S0893-6080(03)00137-0.
8
Associative memory by recurrent neural networks with delay elements.具有延迟元件的递归神经网络的联想记忆
Neural Netw. 2004 Jan;17(1):55-63. doi: 10.1016/S0893-6080(03)00207-7.
9
The road to chaos by time-asymmetric Hebbian learning in recurrent neural networks.循环神经网络中由时间不对称赫布学习导致的混沌之路。
Neural Comput. 2007 Jan;19(1):80-110. doi: 10.1162/neco.2007.19.1.80.
10
Dynamics and robustness of familiarity memory.熟悉记忆的动态和稳健性。
Neural Comput. 2010 Feb;22(2):448-66. doi: 10.1162/neco.2009.12-08-921.

引用本文的文献

1
A mismatch-based model for memory reconsolidation and extinction in attractor networks.基于失配的吸引子网络中的记忆再巩固和遗忘模型。
PLoS One. 2011;6(8):e23113. doi: 10.1371/journal.pone.0023113. Epub 2011 Aug 3.