• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

上下文相关神经网络——结构与学习

Context-dependent neural nets--structures and learning.

作者信息

Ciskowski Piotr, Rafajłowicz Ewaryst

机构信息

Wroclaw University of Technology, 50 370 Wrocław, Poland.

出版信息

IEEE Trans Neural Netw. 2004 Nov;15(6):1367-77. doi: 10.1109/TNN.2004.837839.

DOI:10.1109/TNN.2004.837839
PMID:15565766
Abstract

A novel approach toward neural networks modeling is presented in the paper. It is unique in the fact that allows nets' weights to change according to changes of some environmental factors even after completing the learning process. The models of context-dependent (cd) neuron, one- and multilayer feedforward net are presented, with basic learning algorithms and examples of functioning. The Vapnik-Chervonenkis (VC) dimension of a cd neuron is derived, as well as VC dimension of multilayer feedforward nets. Cd nets' properties are discussed and compared with the properties of traditional nets. Possibilities of applications to classification and control problems are also outlined and an example presented.

摘要

本文提出了一种神经网络建模的新方法。它的独特之处在于,即使在学习过程完成后,也能使网络权重根据某些环境因素的变化而改变。文中给出了上下文相关(cd)神经元、单隐藏层和多隐藏层前馈网络的模型,以及基本学习算法和运行示例。推导了cd神经元的Vapnik-Chervonenkis(VC)维数,以及多隐藏层前馈网络的VC维数。讨论了cd网络的特性,并与传统网络的特性进行了比较。还概述了其在分类和控制问题中的应用可能性,并给出了一个示例。

相似文献

1
Context-dependent neural nets--structures and learning.上下文相关神经网络——结构与学习
IEEE Trans Neural Netw. 2004 Nov;15(6):1367-77. doi: 10.1109/TNN.2004.837839.
2
Reproducing chaos by variable structure recurrent neural networks.用可变结构递归神经网络再现混沌
IEEE Trans Neural Netw. 2004 Nov;15(6):1450-7. doi: 10.1109/TNN.2004.836236.
3
Magnified gradient function with deterministic weight modification in adaptive learning.自适应学习中具有确定性权重修改的放大梯度函数
IEEE Trans Neural Netw. 2004 Nov;15(6):1411-23. doi: 10.1109/TNN.2004.836237.
4
Feedforward sigmoidal networks--equicontinuity and fault-tolerance properties.前馈Sigmoid网络——等度连续性和容错特性。
IEEE Trans Neural Netw. 2004 Nov;15(6):1350-66. doi: 10.1109/TNN.2004.831198.
5
New dynamical optimal learning for linear multilayer FNN.线性多层前馈神经网络的新型动态最优学习
IEEE Trans Neural Netw. 2004 Nov;15(6):1562-8. doi: 10.1109/TNN.2004.830801.
6
Neural network learning with global heuristic search.基于全局启发式搜索的神经网络学习
IEEE Trans Neural Netw. 2007 May;18(3):937-42. doi: 10.1109/TNN.2007.891633.
7
A hopfield network learning method for bipartite subgraph problem.一种用于二分图子图问题的霍普菲尔德网络学习方法。
IEEE Trans Neural Netw. 2004 Nov;15(6):1458-65. doi: 10.1109/TNN.2004.836234.
8
Hidden space support vector machines.隐空间支持向量机
IEEE Trans Neural Netw. 2004 Nov;15(6):1424-34. doi: 10.1109/TNN.2004.831161.
9
Dynamic extreme learning machine and its approximation capability.动态极限学习机及其逼近能力。
IEEE Trans Cybern. 2013 Dec;43(6):2054-65. doi: 10.1109/TCYB.2013.2239987.
10
A columnar competitive model for solving combinatorial optimization problems.一种用于解决组合优化问题的柱状竞争模型。
IEEE Trans Neural Netw. 2004 Nov;15(6):1568-73. doi: 10.1109/TNN.2004.836244.