• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

具有简化架构的增量神经网络。

An incremental neural network with a reduced architecture.

机构信息

Universidade Federal do Espírito Santo - UFES, Vitória - ES, Brazil.

出版信息

Neural Netw. 2012 Nov;35:70-81. doi: 10.1016/j.neunet.2012.08.003. Epub 2012 Aug 23.

DOI:10.1016/j.neunet.2012.08.003
PMID:22954480
Abstract

This paper proposes a technique, called Evolving Probabilistic Neural Network (ePNN), that presents many interesting features, including incremental learning, evolving architecture, the capacity to learn continually throughout its existence and requiring that each training sample be used only once in the training phase without reprocessing. A series of experiments was performed on data sets in the public domain; the results indicate that ePNN is superior or equal to the other incremental neural networks evaluated in this paper. These results also demonstrate the advantage of the small ePNN architecture and show that its architecture is more stable than the other incremental neural networks evaluated. ePNN thus appears to be a promising alternative for a quick learning system and a fast classifier with a low computational cost.

摘要

本文提出了一种名为进化概率神经网络(ePNN)的技术,它具有许多有趣的特点,包括增量学习、进化架构、在其存在期间持续学习的能力以及要求每个训练样本在训练阶段仅使用一次而无需重新处理。在公共领域的数据集上进行了一系列实验;结果表明,ePNN 优于或等于本文评估的其他增量神经网络。这些结果还表明了小 ePNN 架构的优势,并表明其架构比评估的其他增量神经网络更稳定。因此,ePNN 似乎是一种快速学习系统和快速分类器的有前途的选择,具有低计算成本。

相似文献

1
An incremental neural network with a reduced architecture.具有简化架构的增量神经网络。
Neural Netw. 2012 Nov;35:70-81. doi: 10.1016/j.neunet.2012.08.003. Epub 2012 Aug 23.
2
GFAM: evolving Fuzzy ARTMAP neural networks.GFAM:不断演进的模糊ARTMAP神经网络。
Neural Netw. 2007 Oct;20(8):874-92. doi: 10.1016/j.neunet.2007.05.006. Epub 2007 Jun 3.
3
Snap-drift neural network for self-organisation and sequence learning.快速漂移神经网络的自组织和序列学习。
Neural Netw. 2011 Oct;24(8):897-905. doi: 10.1016/j.neunet.2011.05.007. Epub 2011 Jun 6.
4
A hierarchical ART network for the stable incremental learning of topological structures and associations from noisy data.一种分层 ART 网络,用于从嘈杂数据中稳定地增量学习拓扑结构和关联。
Neural Netw. 2011 Oct;24(8):906-16. doi: 10.1016/j.neunet.2011.05.009. Epub 2011 Jun 7.
5
A fuzzy min-max neural network classifier with compensatory neuron architecture.一种具有补偿神经元架构的模糊最小-最大神经网络分类器。
IEEE Trans Neural Netw. 2007 Jan;18(1):42-54. doi: 10.1109/TNN.2006.882811.
6
A novel multi-epitopic immune network model hybridized with neural theory and fuzzy concept.一种与神经理论和模糊概念相结合的新型多表位免疫网络模型。
Neural Netw. 2009 Jul-Aug;22(5-6):633-41. doi: 10.1016/j.neunet.2009.06.041. Epub 2009 Jul 2.
7
Meta-learning approach to neural network optimization.元学习方法在神经网络优化中的应用。
Neural Netw. 2010 May;23(4):568-82. doi: 10.1016/j.neunet.2010.02.003. Epub 2010 Feb 20.
8
Constructing a fuzzy rule-based system using the ILFN network and Genetic Algorithm.使用区间值模糊数网络和遗传算法构建基于模糊规则的系统。
Int J Neural Syst. 2001 Oct;11(5):427-43. doi: 10.1142/S0129065701000618.
9
Evolving logic networks with real-valued inputs for fast incremental learning.用于快速增量学习的具有实值输入的演化逻辑网络。
IEEE Trans Syst Man Cybern B Cybern. 2009 Feb;39(1):254-67. doi: 10.1109/TSMCB.2008.2005483. Epub 2008 Dec 9.
10
Multi-level fuzzy min-max neural network classifier.多层次模糊极大极小神经网络分类器。
IEEE Trans Neural Netw Learn Syst. 2014 Mar;25(3):470-82. doi: 10.1109/TNNLS.2013.2275937.