• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

用于快速增量学习的具有实值输入的演化逻辑网络。

Evolving logic networks with real-valued inputs for fast incremental learning.

作者信息

Park Myoung Soo, Choi Jin Young

机构信息

School of Electrical Engineering and Computer Science, Automation and Systems Research Institute, Seoul National University, Seoul 151-744, Korea.

出版信息

IEEE Trans Syst Man Cybern B Cybern. 2009 Feb;39(1):254-67. doi: 10.1109/TSMCB.2008.2005483. Epub 2008 Dec 9.

DOI:10.1109/TSMCB.2008.2005483
PMID:19068435
Abstract

In this paper, we present a neural network structure and a fast incremental learning algorithm using this network. The proposed network structure, named Evolving Logic Networks for Real-valued inputs (ELN-R), is a data structure for storing and using the knowledge. A distinctive feature of ELN-R is that the previously learned knowledge stored in ELN-R can be used as a kind of building block in constructing new knowledge. Using this feature, the proposed learning algorithm can enhance the stability and plasticity at the same time, and as a result, the fast incremental learning can be realized. The performance of the proposed scheme is shown by a theoretical analysis and an experimental study on two benchmark problems.

摘要

在本文中,我们提出了一种神经网络结构以及使用该网络的快速增量学习算法。所提出的网络结构名为实值输入的进化逻辑网络(ELN-R),是一种用于存储和使用知识的数据结构。ELN-R的一个显著特点是,存储在ELN-R中的先前学习到的知识可以用作构建新知识的一种构建块。利用这一特性,所提出的学习算法可以同时提高稳定性和可塑性,从而实现快速增量学习。通过对两个基准问题的理论分析和实验研究,展示了所提方案的性能。

相似文献

1
Evolving logic networks with real-valued inputs for fast incremental learning.用于快速增量学习的具有实值输入的演化逻辑网络。
IEEE Trans Syst Man Cybern B Cybern. 2009 Feb;39(1):254-67. doi: 10.1109/TSMCB.2008.2005483. Epub 2008 Dec 9.
2
An enhanced self-organizing incremental neural network for online unsupervised learning.一种用于在线无监督学习的增强型自组织增量神经网络。
Neural Netw. 2007 Oct;20(8):893-903. doi: 10.1016/j.neunet.2007.07.008. Epub 2007 Aug 14.
3
Fuzzified Choquet Integral with a Fuzzy-valued Integrand and its application on temperature prediction.具有模糊值被积函数的模糊Choquet积分及其在温度预测中的应用。
IEEE Trans Syst Man Cybern B Cybern. 2008 Apr;38(2):367-80. doi: 10.1109/TSMCB.2007.911377.
4
A complex-valued RTRL algorithm for recurrent neural networks.一种用于递归神经网络的复值实时循环学习算法。
Neural Comput. 2004 Dec;16(12):2699-713. doi: 10.1162/0899766042321779.
5
Multiobjective hybrid optimization and training of recurrent neural networks.递归神经网络的多目标混合优化与训练
IEEE Trans Syst Man Cybern B Cybern. 2008 Apr;38(2):381-403. doi: 10.1109/TSMCB.2007.912937.
6
Incremental learning of feature space and classifier for face recognition.用于人脸识别的特征空间和分类器的增量学习。
Neural Netw. 2005 Jun-Jul;18(5-6):575-84. doi: 10.1016/j.neunet.2005.06.016.
7
Evolutionary product unit based neural networks for regression.基于进化乘积单元的回归神经网络。
Neural Netw. 2006 May;19(4):477-86. doi: 10.1016/j.neunet.2005.11.001. Epub 2006 Feb 14.
8
Neural independent component analysis by 'maximum-mismatch' learning principle.基于“最大失配”学习原理的神经独立成分分析
Neural Netw. 2003 Oct;16(8):1201-21. doi: 10.1016/S0893-6080(03)00057-1.
9
MISEP method for postnonlinear blind source separation.用于后非线性盲源分离的MISEP方法。
Neural Comput. 2007 Sep;19(9):2557-78. doi: 10.1162/neco.2007.19.9.2557.
10
Efficiently updating and tracking the dominant kernel principal components.
Neural Netw. 2007 Mar;20(2):220-9. doi: 10.1016/j.neunet.2006.09.012. Epub 2007 Jan 17.