• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

一种用于多层感知器过往训练的隐藏层新误差函数。

A new error function at hidden layers for past training of multilayer perceptrons.

作者信息

Oh S H, Lee S Y

出版信息

IEEE Trans Neural Netw. 1999;10(4):960-4. doi: 10.1109/72.774272.

DOI:10.1109/72.774272
PMID:18252596
Abstract

This letter proposes a new error function at hidden layers to speed up the training of multilayer perceptrons (MLP's). With this new hidden error function, the layer-by-layer (LBL) algorithm approximately converges to the error backpropagation algorithm with optimum learning rates. Especially, the optimum learning rate for a hidden weight vector appears approximately as a multiplication of two optimum factors, one for minimizing the new hidden error function and the other for assigning hidden targets. Effectiveness of the proposed error function was demonstrated for handwritten digit recognition and isolated-word recognition tasks. Very fast learning convergence was obtained for MLP's without the stalling problem experienced in conventional LBL algorithms.

摘要

本文提出了一种用于隐藏层的新误差函数,以加速多层感知器(MLP)的训练。借助这种新的隐藏误差函数,逐层(LBL)算法在最优学习率下近似收敛于误差反向传播算法。特别地,隐藏权重向量的最优学习率大约表现为两个最优因子的乘积,一个用于最小化新的隐藏误差函数,另一个用于分配隐藏目标。所提出的误差函数在手写数字识别和孤立词识别任务中得到了验证。对于MLP,获得了非常快速的学习收敛,且没有传统LBL算法中出现的停滞问题。

相似文献

1
A new error function at hidden layers for past training of multilayer perceptrons.一种用于多层感知器过往训练的隐藏层新误差函数。
IEEE Trans Neural Netw. 1999;10(4):960-4. doi: 10.1109/72.774272.
2
Improving the error backpropagation algorithm with a modified error function.用改进的误差函数改进误差反向传播算法。
IEEE Trans Neural Netw. 1997;8(3):799-803. doi: 10.1109/72.572117.
3
Deep, big, simple neural nets for handwritten digit recognition.深度、大型、简单的神经网络用于手写数字识别。
Neural Comput. 2010 Dec;22(12):3207-20. doi: 10.1162/NECO_a_00052. Epub 2010 Sep 21.
4
Fast training of multilayer perceptrons.多层感知器的快速训练
IEEE Trans Neural Netw. 1997;8(6):1314-20. doi: 10.1109/72.641454.
5
Determining and improving the fault tolerance of multilayer perceptrons in a pattern-recognition application.在模式识别应用中确定并提高多层感知器的容错能力。
IEEE Trans Neural Netw. 1993;4(5):788-93. doi: 10.1109/72.248456.
6
On the initialization and optimization of multilayer perceptrons.关于多层感知器的初始化与优化
IEEE Trans Neural Netw. 1994;5(5):738-51. doi: 10.1109/72.317726.
7
Statistical active learning in multilayer perceptrons.多层感知器中的统计主动学习
IEEE Trans Neural Netw. 2000;11(1):17-26. doi: 10.1109/72.822506.
8
An accelerated learning algorithm for multilayer perceptrons: optimization layer by layer.一种用于多层感知器的加速学习算法:逐层优化
IEEE Trans Neural Netw. 1995;6(1):31-42. doi: 10.1109/72.363452.
9
Optimized approximation algorithm in neural networks without overfitting.神经网络中无过拟合的优化近似算法。
IEEE Trans Neural Netw. 2008 Jun;19(6):983-95. doi: 10.1109/TNN.2007.915114.
10
Novel maximum-margin training algorithms for supervised neural networks.用于监督神经网络的新型最大间隔训练算法。
IEEE Trans Neural Netw. 2010 Jun;21(6):972-84. doi: 10.1109/TNN.2010.2046423. Epub 2010 Apr 19.