• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

吸引子神经网络对多个低维流形的最优学习中的容量分辨率折衷。

Capacity-Resolution Trade-Off in the Optimal Learning of Multiple Low-Dimensional Manifolds by Attractor Neural Networks.

机构信息

Laboratory of Physics of the Ecole Normale Supérieure, CNRS UMR 8023 & PSL Research, 24 rue Lhomond, 75005 Paris, France.

出版信息

Phys Rev Lett. 2020 Jan 31;124(4):048302. doi: 10.1103/PhysRevLett.124.048302.

DOI:10.1103/PhysRevLett.124.048302
PMID:32058781
Abstract

Recurrent neural networks (RNN) are powerful tools to explain how attractors may emerge from noisy, high-dimensional dynamics. We study here how to learn the ∼N^{2} pairwise interactions in a RNN with N neurons to embed L manifolds of dimension D≪N. We show that the capacity, i.e., the maximal ratio L/N, decreases as |logε|^{-D}, where ε is the error on the position encoded by the neural activity along each manifold. Hence, RNN are flexible memory devices capable of storing a large number of manifolds at high spatial resolution. Our results rely on a combination of analytical tools from statistical mechanics and random matrix theory, extending Gardner's classical theory of learning to the case of patterns with strong spatial correlations.

摘要

递归神经网络(RNN)是解释吸引子如何从嘈杂的高维动力学中出现的强大工具。我们在这里研究如何学习具有 N 个神经元的 RNN 中 ∼N^{2}的成对相互作用,以嵌入维度 D≪N 的 L 个流形。我们表明,容量,即 L/N 的最大比,随着位置编码的神经活动沿每个流形的误差 ε 的 |logε|^{-D}而减小。因此,RNN 是灵活的存储设备,能够以高空间分辨率存储大量流形。我们的结果依赖于统计力学和随机矩阵理论的分析工具的组合,将 Gardner 的经典学习理论扩展到具有强空间相关性的模式的情况。

相似文献

1
Capacity-Resolution Trade-Off in the Optimal Learning of Multiple Low-Dimensional Manifolds by Attractor Neural Networks.吸引子神经网络对多个低维流形的最优学习中的容量分辨率折衷。
Phys Rev Lett. 2020 Jan 31;124(4):048302. doi: 10.1103/PhysRevLett.124.048302.
2
Network capacity analysis for latent attractor computation.用于潜在吸引子计算的网络容量分析。
Network. 2003 May;14(2):273-302.
3
Learning to represent continuous variables in heterogeneous neural networks.在异构神经网络中学习表示连续变量。
Cell Rep. 2022 Apr 5;39(1):110612. doi: 10.1016/j.celrep.2022.110612.
4
Low-Dimensional Manifolds Support Multiplexed Integrations in Recurrent Neural Networks.低维流形支持递归神经网络中的多路复用集成。
Neural Comput. 2021 Mar 26;33(4):1063-1112. doi: 10.1162/neco_a_01366.
5
On the Maximum Storage Capacity of the Hopfield Model.关于霍普菲尔德模型的最大存储容量
Front Comput Neurosci. 2017 Jan 10;10:144. doi: 10.3389/fncom.2016.00144. eCollection 2016.
6
Cusps enable line attractors for neural computation.嵴使神经计算的线吸引成为可能。
Phys Rev E. 2017 Nov;96(5-1):052308. doi: 10.1103/PhysRevE.96.052308. Epub 2017 Nov 7.
7
Learning continuous chaotic attractors with a reservoir computer.利用储层计算机学习连续混沌吸引子。
Chaos. 2022 Jan;32(1):011101. doi: 10.1063/5.0075572.
8
From statistical inference to a differential learning rule for stochastic neural networks.从统计推断到随机神经网络的差异学习规则。
Interface Focus. 2018 Dec 6;8(6):20180033. doi: 10.1098/rsfs.2018.0033. Epub 2018 Oct 19.
9
Continuous attractors of Lotka-Volterra recurrent neural networks with infinite neurons.具有无限神经元的Lotka-Volterra递归神经网络的连续吸引子
IEEE Trans Neural Netw. 2010 Oct;21(10):1690-5. doi: 10.1109/TNN.2010.2067224. Epub 2010 Sep 2.
10
[Dynamic paradigm in psychopathology: "chaos theory", from physics to psychiatry].[精神病理学中的动态范式:“混沌理论”,从物理学到精神病学]
Encephale. 2001 May-Jun;27(3):260-8.

引用本文的文献

1
REMI: Reconstructing Episodic Memory During Intrinsic Path Planning.REMI:在内在路径规划过程中重建情景记忆。
bioRxiv. 2025 Jul 3:2025.07.02.662824. doi: 10.1101/2025.07.02.662824.
2
Time Makes Space: Emergence of Place Fields in Networks Encoding Temporally Continuous Sensory Experiences.时间塑造空间:在编码时间连续感官体验的网络中位置野的出现。
ArXiv. 2025 Jul 9:arXiv:2408.05798v3.
3
Trading Place for Space: Increasing Location Resolution Reduces Contextual Capacity in Hippocampal Codes.空间的交易场所:提高位置分辨率会降低海马体编码中的情境容量。
bioRxiv. 2025 Jan 11:2024.10.29.620785. doi: 10.1101/2024.10.29.620785.
4
Time Makes Space: Emergence of Place Fields in Networks Encoding Temporally Continuous Sensory Experiences.时间塑造空间:编码时间连续感觉体验的网络中位置场的出现。
bioRxiv. 2025 Jan 29:2024.08.11.607484. doi: 10.1101/2024.08.11.607484.
5
Attractor and integrator networks in the brain.大脑中的吸引子网络和整合器网络。
Nat Rev Neurosci. 2022 Dec;23(12):744-766. doi: 10.1038/s41583-022-00642-0. Epub 2022 Nov 3.
6
Place-cell capacity and volatility with grid-like inputs.具有网格状输入的位置细胞容量和波动性。
Elife. 2021 May 24;10:e62702. doi: 10.7554/eLife.62702.
7
Optimal learning with excitatory and inhibitory synapses.最优的兴奋与抑制突触学习。
PLoS Comput Biol. 2020 Dec 28;16(12):e1008536. doi: 10.1371/journal.pcbi.1008536. eCollection 2020 Dec.