• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

一种用于高存储密度存储器的弛豫模型。

A relaxation model for memory with high storage density.

作者信息

Bachmann C M, Cooper L N, Dembo A, Zeitouni O

机构信息

Department of Physics, Applied Mathematics, Brown University, Providence, RI 02912.

出版信息

Proc Natl Acad Sci U S A. 1987 Nov;84(21):7529-31. doi: 10.1073/pnas.84.21.7529.

DOI:10.1073/pnas.84.21.7529
PMID:3478709
原文链接:https://pmc.ncbi.nlm.nih.gov/articles/PMC299332/
Abstract

We present a relaxation model for memory based on a generalized coulomb potential. The model has arbitrarily large storage capacity and, in addition, well-defined basins of attraction about stored memory states. The model is compared with the Hopfield relaxation model.

摘要

我们提出了一种基于广义库仑势的记忆松弛模型。该模型具有任意大的存储容量,此外,围绕存储的记忆状态具有明确的吸引盆。将该模型与霍普菲尔德松弛模型进行了比较。

相似文献

1
A relaxation model for memory with high storage density.一种用于高存储密度存储器的弛豫模型。
Proc Natl Acad Sci U S A. 1987 Nov;84(21):7529-31. doi: 10.1073/pnas.84.21.7529.
2
Pseudo-relaxation learning algorithm for complex-valued associative memory.用于复值联想记忆的伪松弛学习算法。
Int J Neural Syst. 2008 Apr;18(2):147-56. doi: 10.1142/S0129065708001452.
3
"Unlearning" increases the storage capacity of content addressable memories.“忘却”可增加内容可寻址存储器的存储容量。
Biophys J. 1987 Jan;51(1):47-53. doi: 10.1016/S0006-3495(87)83310-6.
4
A Three-Threshold Learning Rule Approaches the Maximal Capacity of Recurrent Neural Networks.一种三阈值学习规则接近循环神经网络的最大容量。
PLoS Comput Biol. 2015 Aug 20;11(8):e1004439. doi: 10.1371/journal.pcbi.1004439. eCollection 2015 Aug.
5
Associative memory neural network with low temporal spiking rates.具有低时间尖峰率的联想记忆神经网络。
Proc Natl Acad Sci U S A. 1989 Oct;86(20):7871-5. doi: 10.1073/pnas.86.20.7871.
6
[Memory model based on the plasticity of inhibiting neurons].基于抑制性神经元可塑性的记忆模型
Biofizika. 1983 May-Jun;28(3):475-80.
7
Self-consistent signal-to-noise analysis of Hopfield model with unit replacement.具有单元替换的 Hopfield 模型的自洽信噪比分析。
Neural Netw. 2010 Dec;23(10):1180-6. doi: 10.1016/j.neunet.2010.06.006. Epub 2010 Jun 25.
8
The self-trapping attractor neural network--part II: properties of a sparsely connected model storing multiple memories.
IEEE Trans Neural Netw. 2005 Nov;16(6):1427-39. doi: 10.1109/TNN.2005.852969.
9
Doubly modifiable synapses: a model of short and long term auto-associative memory.
Proc R Soc Lond B Biol Sci. 1989 Nov 22;238(1291):137-54. doi: 10.1098/rspb.1989.0072.
10
Effects of delays on the basin boundary of attraction in a hopfield network of two delay-connecting neurons.延迟对由两个具有延迟连接的神经元组成的霍普菲尔德网络中吸引子盆地边界的影响。
Nonlinear Dynamics Psychol Life Sci. 2009 Apr;13(2):161-80.

本文引用的文献

1
A neural model for category learning.
Biol Cybern. 1982;45(1):35-41. doi: 10.1007/BF00387211.
2
Neural networks and physical systems with emergent collective computational abilities.具有涌现集体计算能力的神经网络与物理系统。
Proc Natl Acad Sci U S A. 1982 Apr;79(8):2554-8. doi: 10.1073/pnas.79.8.2554.
3
'Unlearning' has a stabilizing effect in collective memories.“忘却”对集体记忆具有稳定作用。
Nature. 1983;304(5922):158-9. doi: 10.1038/304158a0.
4
Neurons with graded response have collective computational properties like those of two-state neurons.具有分级反应的神经元具有与双态神经元类似的集体计算特性。
Proc Natl Acad Sci U S A. 1984 May;81(10):3088-92. doi: 10.1073/pnas.81.10.3088.