• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

误差正则化、Sigmoid增益缩放、目标平滑以及带抖动训练的相似性。

Similarities of error regularization, sigmoid gain scaling, target smoothing, and training with jitter.

作者信息

Reed R, Marks R J, Oh S

机构信息

Dept. of Electr. Eng., Washington Univ., Seattle, WA.

出版信息

IEEE Trans Neural Netw. 1995;6(3):529-38. doi: 10.1109/72.377960.

DOI:10.1109/72.377960
PMID:18263340
Abstract

The generalization performance of feedforward layered perceptrons can, in many cases, be improved either by smoothing the target via convolution, regularizing the training error with a smoothing constraint, decreasing the gain (i.e., slope) of the sigmoid nonlinearities, or adding noise (i.e., jitter) to the input training data, In certain important cases, the results of these procedures yield highly similar results although at different costs. Training with jitter, for example, requires significantly more computation than sigmoid scaling.

摘要

在许多情况下,前馈分层感知器的泛化性能可以通过以下方式得到提升:通过卷积平滑目标、用平滑约束对训练误差进行正则化、降低Sigmoid非线性函数的增益(即斜率),或者向输入训练数据添加噪声(即抖动)。在某些重要情况下,这些方法的结果虽然成本不同,但却非常相似。例如,使用抖动进行训练比Sigmoid缩放需要更多的计算。

相似文献

1
Similarities of error regularization, sigmoid gain scaling, target smoothing, and training with jitter.误差正则化、Sigmoid增益缩放、目标平滑以及带抖动训练的相似性。
IEEE Trans Neural Netw. 1995;6(3):529-38. doi: 10.1109/72.377960.
2
Batch gradient method with smoothing L1/2 regularization for training of feedforward neural networks.用于前馈神经网络训练的带有平滑L1/2正则化的批量梯度法。
Neural Netw. 2014 Feb;50:72-8. doi: 10.1016/j.neunet.2013.11.006. Epub 2013 Nov 18.
3
An analysis of noise in recurrent neural networks: convergence and generalization.循环神经网络中的噪声分析:收敛性与泛化能力
IEEE Trans Neural Netw. 1996;7(6):1424-38. doi: 10.1109/72.548170.
4
Generalization and capacity of extensively large two-layered perceptrons.超大规模双层感知器的泛化能力
Phys Rev E Stat Nonlin Soft Matter Phys. 2002 Sep;66(3 Pt 2A):036138. doi: 10.1103/PhysRevE.66.036138. Epub 2002 Sep 27.
5
Capabilities of a four-layered feedforward neural network: four layers versus three.四层前馈神经网络的能力:四层与三层的对比。
IEEE Trans Neural Netw. 1997;8(2):251-5. doi: 10.1109/72.557662.
6
Curvature-driven smoothing: a learning algorithm for feedforward networks.
IEEE Trans Neural Netw. 1993;4(5):882-4. doi: 10.1109/72.248466.
7
Functional approximation by feed-forward networks: a least-squares approach to generalization.前馈网络的函数逼近:一种用于泛化的最小二乘法
IEEE Trans Neural Netw. 1994;5(3):363-71. doi: 10.1109/72.286908.
8
Weight smoothing to improve network generalization.
IEEE Trans Neural Netw. 1994;5(5):752-63. doi: 10.1109/72.317727.
9
An error-weighted regularization algorithm for image motion-field estimation.一种用于图像运动场估计的误差加权正则化算法。
IEEE Trans Image Process. 1993;2(2):246-52. doi: 10.1109/83.217228.
10
Objective functions of online weight noise injection training algorithms for MLPs.用于多层感知器的在线权重噪声注入训练算法的目标函数。
IEEE Trans Neural Netw. 2011 Feb;22(2):317-23. doi: 10.1109/TNN.2010.2095881. Epub 2010 Dec 23.

引用本文的文献

1
Noise-injected neural networks show promise for use on small-sample expression data.注入噪声的神经网络在小样本表达数据的应用中显示出前景。
BMC Bioinformatics. 2006 May 31;7:274. doi: 10.1186/1471-2105-7-274.