• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

使用双反向传播提高泛化性能。

Improving generalization performance using double backpropagation.

作者信息

Drucker H, Le Cun Y

机构信息

ATandT Bell Lab., West Long Branch, NJ.

出版信息

IEEE Trans Neural Netw. 1992;3(6):991-7. doi: 10.1109/72.165600.

DOI:10.1109/72.165600
PMID:18276495
Abstract

In order to generalize from a training set to a test set, it is desirable that small changes in the input space of a pattern do not change the output components. This can be done by forcing this behavior as part of the training algorithm. This is done in double backpropagation by forming an energy function that is the sum of the normal energy term found in backpropagation and an additional term that is a function of the Jacobian. Significant improvement is shown with different architectures and different test sets, especially with architectures that had previously been shown to have very good performance when trained using backpropagation. It is shown that double backpropagation, as compared to backpropagation, creates weights that are smaller, thereby causing the output of the neurons to spend more time in the linear region.

摘要

为了从训练集推广到测试集,期望模式输入空间中的微小变化不会改变输出分量。这可以通过将此行为强制作为训练算法的一部分来实现。在双反向传播中,通过形成一个能量函数来做到这一点,该能量函数是反向传播中发现的正常能量项与作为雅可比矩阵函数的附加项之和。在不同的架构和不同的测试集上都显示出了显著的改进,特别是对于那些之前使用反向传播训练时表现出非常好性能的架构。结果表明,与反向传播相比,双反向传播创建的权重更小,从而使神经元的输出在线性区域花费更多时间。

相似文献

1
Improving generalization performance using double backpropagation.使用双反向传播提高泛化性能。
IEEE Trans Neural Netw. 1992;3(6):991-7. doi: 10.1109/72.165600.
2
Weight decay backpropagation for noisy data.针对噪声数据的权重衰减反向传播。
Neural Netw. 1998 Aug;11(6):1127-1138. doi: 10.1016/s0893-6080(98)00046-x.
3
Noise-boosted bidirectional backpropagation and adversarial learning.噪声增强的双向反向传播和对抗学习。
Neural Netw. 2019 Dec;120:9-31. doi: 10.1016/j.neunet.2019.09.016. Epub 2019 Oct 17.
4
A new constructive algorithm for architectural and functional adaptation of artificial neural networks.一种用于人工神经网络架构和功能自适应的新型构造算法。
IEEE Trans Syst Man Cybern B Cybern. 2009 Dec;39(6):1590-605. doi: 10.1109/TSMCB.2009.2021849. Epub 2009 Jun 5.
5
A fast feedforward training algorithm using a modified form of the standard backpropagation algorithm.一种使用标准反向传播算法的修改形式的快速前馈训练算法。
IEEE Trans Neural Netw. 2001;12(2):424-30. doi: 10.1109/72.914537.
6
Novel maximum-margin training algorithms for supervised neural networks.用于监督神经网络的新型最大间隔训练算法。
IEEE Trans Neural Netw. 2010 Jun;21(6):972-84. doi: 10.1109/TNN.2010.2046423. Epub 2010 Apr 19.
7
On the weight convergence of Elman networks.关于埃尔曼网络的权重收敛性。
IEEE Trans Neural Netw. 2010 Mar;21(3):463-80. doi: 10.1109/TNN.2009.2039226. Epub 2010 Feb 2.
8
Fast training of multilayer perceptrons.多层感知器的快速训练
IEEE Trans Neural Netw. 1997;8(6):1314-20. doi: 10.1109/72.641454.
9
Equivalence of backpropagation and contrastive Hebbian learning in a layered network.分层网络中反向传播与对比赫布学习的等效性。
Neural Comput. 2003 Feb;15(2):441-54. doi: 10.1162/089976603762552988.
10
On overfitting, generalization, and randomly expanded training sets.关于过拟合、泛化以及随机扩展的训练集
IEEE Trans Neural Netw. 2000;11(5):1050-7. doi: 10.1109/72.870038.

引用本文的文献

1
An Empirical Investigation of Domain Generalization with Empirical Risk Minimizers.使用经验风险最小化器进行领域泛化的实证研究。
Adv Neural Inf Process Syst. 2021 Dec;34:28131-28143.
2
Interpretable brain disease classification and relevance-guided deep learning.可解释的脑疾病分类与相关性引导的深度学习。
Sci Rep. 2022 Nov 24;12(1):20254. doi: 10.1038/s41598-022-24541-7.
3
A System-Driven Taxonomy of Attacks and Defenses in Adversarial Machine Learning.对抗机器学习中基于系统驱动的攻击与防御分类法
IEEE Trans Emerg Top Comput Intell. 2020 Aug;4(4):450-467. doi: 10.1109/tetci.2020.2968933. Epub 2020 May 25.
4
BioGD: Bio-inspired robust gradient descent.生物启发稳健梯度下降法(BioGD):一种受生物启发的稳健梯度下降法。
PLoS One. 2019 Jul 5;14(7):e0219004. doi: 10.1371/journal.pone.0219004. eCollection 2019.
5
Gesture Prediction Using Wearable Sensing Systems with Neural Networks for Temporal Data Analysis.基于神经网络的可穿戴传感系统进行手势预测及其时间数据分析。
Sensors (Basel). 2019 Feb 9;19(3):710. doi: 10.3390/s19030710.