• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

递归主成分分析

Recursive principal components analysis.

作者信息

Voegtlin Thomas

机构信息

INRIA-Campus Scientifique, B.P. 239 F-54506 Vandoeuvre-Les-Nancy Cedex, France.

出版信息

Neural Netw. 2005 Oct;18(8):1051-63. doi: 10.1016/j.neunet.2005.07.005. Epub 2005 Sep 21.

DOI:10.1016/j.neunet.2005.07.005
PMID:16181769
Abstract

A recurrent linear network can be trained with Oja's constrained Hebbian learning rule. As a result, the network learns to represent the temporal context associated to its input sequence. The operation performed by the network is a generalization of Principal Components Analysis (PCA) to time-series, called Recursive PCA. The representations learned by the network are adapted to the temporal statistics of the input. Moreover, sequences stored in the network may be retrieved explicitly, in the reverse order of presentation, thus providing a straight-forward neural implementation of a logical stack.

摘要

递归线性网络可以使用奥贾的约束赫布学习规则进行训练。结果,该网络学会了表示与其输入序列相关的时间上下文。网络执行的操作是主成分分析(PCA)对时间序列的推广,称为递归主成分分析。网络学习到的表示适应于输入的时间统计。此外,存储在网络中的序列可以按呈现的相反顺序明确检索,从而提供了一种逻辑堆栈的直接神经实现。

相似文献

1
Recursive principal components analysis.递归主成分分析
Neural Netw. 2005 Oct;18(8):1051-63. doi: 10.1016/j.neunet.2005.07.005. Epub 2005 Sep 21.
2
Linear recursive distributed representations.线性递归分布式表示
Neural Netw. 2005 Sep;18(7):878-95. doi: 10.1016/j.neunet.2005.01.005.
3
Learning viewpoint-invariant face representations from visual experience in an attractor network.在吸引子网络中从视觉经验学习视角不变的面部表征。
Network. 1998 Aug;9(3):399-417.
4
Temporally asymmetric learning supports sequence processing in multi-winner self-organizing maps.时间不对称学习支持多赢家自组织映射中的序列处理。
Neural Comput. 2004 Mar;16(3):535-61. doi: 10.1162/089976604772744901.
5
A hybrid learning network for shift, orientation, and scaling invariant pattern recognition.一种用于平移、旋转和尺度不变模式识别的混合学习网络。
Network. 2001 Nov;12(4):493-512.
6
Principal components analysis competitive learning.主成分分析竞争学习
Neural Comput. 2004 Nov;16(11):2459-81. doi: 10.1162/0899766041941880.
7
Organization of the state space of a simple recurrent network before and after training on recursive linguistic structures.在递归语言结构上进行训练前后,简单循环网络状态空间的组织情况。
Neural Netw. 2007 Mar;20(2):236-44. doi: 10.1016/j.neunet.2006.01.020. Epub 2006 May 9.
8
Learning invariant object recognition in the visual system with continuous transformations.通过连续变换在视觉系统中学习不变目标识别。
Biol Cybern. 2006 Feb;94(2):128-42. doi: 10.1007/s00422-005-0030-z. Epub 2005 Dec 21.
9
Invariant object recognition in the visual system with error correction and temporal difference learning.视觉系统中具有纠错和时间差分学习的不变物体识别
Network. 2001 May;12(2):111-29.
10
A mathematical analysis of the effects of Hebbian learning rules on the dynamics and structure of discrete-time random recurrent neural networks.关于赫布学习规则对离散时间随机递归神经网络的动力学和结构影响的数学分析。
Neural Comput. 2008 Dec;20(12):2937-66. doi: 10.1162/neco.2008.05-07-530.