• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

调制赫布-奥贾学习规则——一种主子空间分析方法。

Modulated Hebb-Oja learning rule--a method for principal subspace analysis.

作者信息

Jankovic Marko V, Ogawa Hidemitsu

机构信息

Electrical Engineering Institute "Nikola Tesla," 11000 Belgrade, Serbia and Montenegro.

出版信息

IEEE Trans Neural Netw. 2006 Mar;17(2):345-56. doi: 10.1109/TNN.2005.863455.

DOI:10.1109/TNN.2005.863455
PMID:16566463
Abstract

This paper presents analysis of the recently proposed modulated Hebb-Oja (MHO) method that performs linear mapping to a lower-dimensional subspace. Principal component subspace is the method that will be analyzed. Comparing to some other well-known methods for yielding principal component subspace (e.g., Oja's Subspace Learning Algorithm), the proposed method has one feature that could be seen as desirable from the biological point of view--synaptic efficacy learning rule does not need the explicit information about the value of the other efficacies to make individual efficacy modification. Also, the simplicity of the "neural circuits" that perform global computations and a fact that their number does not depend on the number of input and output neurons, could be seen as good features of the proposed method.

摘要

本文对最近提出的调制赫布 - 奥雅(MHO)方法进行了分析,该方法可执行到低维子空间的线性映射。主成分子空间就是要分析的方法。与其他一些用于生成主成分子空间的知名方法(例如奥雅子空间学习算法)相比,该方法具有一个从生物学角度看可能是理想的特征——突触效能学习规则在进行个体效能修改时不需要关于其他效能值的明确信息。此外,执行全局计算的“神经回路”的简单性以及其数量不依赖于输入和输出神经元数量这一事实,也可被视为该方法的良好特征。

相似文献

1
Modulated Hebb-Oja learning rule--a method for principal subspace analysis.调制赫布-奥贾学习规则——一种主子空间分析方法。
IEEE Trans Neural Netw. 2006 Mar;17(2):345-56. doi: 10.1109/TNN.2005.863455.
2
A new modulated Hebbian learning rule--biologically plausible method for local computation of a principal subspace.一种新的调制赫布学习规则——用于主性子空间局部计算的生物学上合理的方法。
Int J Neural Syst. 2003 Aug;13(4):215-23. doi: 10.1142/S0129065703001595.
3
Convergence analysis of a deterministic discrete time system of Oja's PCA learning algorithm.奥雅主成分分析(PCA)学习算法确定性离散时间系统的收敛性分析
IEEE Trans Neural Netw. 2005 Nov;16(6):1318-28. doi: 10.1109/TNN.2005.852236.
4
Batch map extensions of the kernel-based maximum entropy learning rule.基于核的最大熵学习规则的批量映射扩展
IEEE Trans Neural Netw. 2006 Mar;17(2):529-32. doi: 10.1109/TNN.2006.871722.
5
Implementing online natural gradient learning: problems and solutions.实现在线自然梯度学习:问题与解决方案。
IEEE Trans Neural Netw. 2006 Mar;17(2):317-29. doi: 10.1109/TNN.2005.863406.
6
The linear separability problem: some testing methods.线性可分性问题:一些测试方法。
IEEE Trans Neural Netw. 2006 Mar;17(2):330-44. doi: 10.1109/TNN.2005.860871.
7
Orthogonal search-based rule extraction (OSRE) for trained neural networks: a practical and efficient approach.用于训练神经网络的基于正交搜索的规则提取(OSRE):一种实用且高效的方法。
IEEE Trans Neural Netw. 2006 Mar;17(2):374-84. doi: 10.1109/TNN.2005.863472.
8
A neural network learning for adaptively extracting cross-correlation features between two high-dimensional data streams.一种用于自适应提取两个高维数据流之间互相关特征的神经网络学习方法。
IEEE Trans Neural Netw. 2004 Nov;15(6):1541-54. doi: 10.1109/TNN.2004.838523.
9
Toward the training of feed-forward neural networks with the D-optimum input sequence.关于使用D-最优输入序列训练前馈神经网络。
IEEE Trans Neural Netw. 2006 Mar;17(2):357-73. doi: 10.1109/TNN.2006.871704.
10
New dynamical optimal learning for linear multilayer FNN.线性多层前馈神经网络的新型动态最优学习
IEEE Trans Neural Netw. 2004 Nov;15(6):1562-8. doi: 10.1109/TNN.2004.830801.