• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

低维流形支持递归神经网络中的多路复用集成。

Low-Dimensional Manifolds Support Multiplexed Integrations in Recurrent Neural Networks.

机构信息

Laboratoire de Physique de l'Ecole Normale Supérieure PSLand CNRS UMR 8023, Sorbonne Université, 75005 Paris, France,

出版信息

Neural Comput. 2021 Mar 26;33(4):1063-1112. doi: 10.1162/neco_a_01366.

DOI:10.1162/neco_a_01366
PMID:33513327
Abstract

We study the learning dynamics and the representations emerging in recurrent neural networks (RNNs) trained to integrate one or multiple temporal signals. Combining analytical and numerical investigations, we characterize the conditions under which an RNN with n neurons learns to integrate D(≪n) scalar signals of arbitrary duration. We show, for linear, ReLU, and sigmoidal neurons, that the internal state lives close to a D-dimensional manifold, whose shape is related to the activation function. Each neuron therefore carries, to various degrees, information about the value of all integrals. We discuss the deep analogy between our results and the concept of mixed selectivity forged by computational neuroscientists to interpret cortical recordings.

摘要

我们研究了在被训练来整合一个或多个时间信号的递归神经网络 (RNN) 中出现的学习动态和表示。通过结合分析和数值研究,我们描述了具有 n 个神经元的 RNN 学习整合任意持续时间的 D(≪n)个标量信号的条件。我们表明,对于线性、ReLU 和 sigmoidal 神经元,内部状态接近于一个 D 维流形,其形状与激活函数有关。因此,每个神经元在不同程度上携带关于所有积分值的信息。我们讨论了我们的结果与计算神经科学家为解释皮质记录而提出的混合选择性概念之间的深刻类比。

相似文献

1
Low-Dimensional Manifolds Support Multiplexed Integrations in Recurrent Neural Networks.低维流形支持递归神经网络中的多路复用集成。
Neural Comput. 2021 Mar 26;33(4):1063-1112. doi: 10.1162/neco_a_01366.
2
Considerations in using recurrent neural networks to probe neural dynamics.使用循环神经网络探究神经动力学的注意事项。
J Neurophysiol. 2019 Dec 1;122(6):2504-2521. doi: 10.1152/jn.00467.2018. Epub 2019 Oct 16.
3
Capacity-Resolution Trade-Off in the Optimal Learning of Multiple Low-Dimensional Manifolds by Attractor Neural Networks.吸引子神经网络对多个低维流形的最优学习中的容量分辨率折衷。
Phys Rev Lett. 2020 Jan 31;124(4):048302. doi: 10.1103/PhysRevLett.124.048302.
4
Low dimensional approximation and generalization of multivariate functions on smooth manifolds using deep ReLU neural networks.基于深度 ReLU 神经网络的光滑流形上多元函数的低维逼近和泛化。
Neural Netw. 2024 Jun;174:106223. doi: 10.1016/j.neunet.2024.106223. Epub 2024 Mar 1.
5
Designing Interpretable Recurrent Neural Networks for Video Reconstruction via Deep Unfolding.通过深度展开设计用于视频重建的可解释循环神经网络。
IEEE Trans Image Process. 2021;30:4099-4113. doi: 10.1109/TIP.2021.3069296. Epub 2021 Apr 8.
6
Recognizing recurrent neural networks (rRNN): Bayesian inference for recurrent neural networks.认识递归神经网络(rRNN):递归神经网络的贝叶斯推理。
Biol Cybern. 2012 Jul;106(4-5):201-17. doi: 10.1007/s00422-012-0490-x. Epub 2012 May 12.
7
Linking Connectivity, Dynamics, and Computations in Low-Rank Recurrent Neural Networks.在低秩递归神经网络中连接连通性、动态和计算。
Neuron. 2018 Aug 8;99(3):609-623.e29. doi: 10.1016/j.neuron.2018.07.003. Epub 2018 Jul 26.
8
Opening the black box: low-dimensional dynamics in high-dimensional recurrent neural networks.打开黑箱:高维递归神经网络中的低维动力学。
Neural Comput. 2013 Mar;25(3):626-49. doi: 10.1162/NECO_a_00409. Epub 2012 Dec 28.
9
Learning With Interpretable Structure From Gated RNN.基于门控 RNN 的可解释结构学习。
IEEE Trans Neural Netw Learn Syst. 2020 Jul;31(7):2267-2279. doi: 10.1109/TNNLS.2020.2967051. Epub 2020 Feb 13.
10
Computational mechanisms of distributed value representations and mixed learning strategies.分布式价值表示和混合学习策略的计算机制。
Nat Commun. 2021 Dec 10;12(1):7191. doi: 10.1038/s41467-021-27413-2.