Suppr超能文献

避免灾难性遗忘。

Avoiding Catastrophic Forgetting.

机构信息

Center for Systems Neuroscience, Boston University, 2 Cummington Mall, Boston, MA 02215, USA.

出版信息

Trends Cogn Sci. 2017 Jun;21(6):407-408. doi: 10.1016/j.tics.2017.04.001. Epub 2017 Apr 23.

Abstract

Humans regularly perform new learning without losing memory for previous information, but neural network models suffer from the phenomenon of catastrophic forgetting in which new learning impairs prior function. A recent article presents an algorithm that spares learning at synapses important for previously learned function, reducing catastrophic forgetting.

摘要

人类经常在不遗忘先前信息的情况下进行新的学习,但神经网络模型会出现灾难性遗忘现象,即新的学习会损害先前的功能。最近的一篇文章提出了一种算法,该算法可以避免学习对先前学习的功能很重要的突触,从而减少灾难性遗忘。

文献AI研究员

20分钟写一篇综述,助力文献阅读效率提升50倍。

立即体验

用中文搜PubMed

大模型驱动的PubMed中文搜索引擎

马上搜索

文档翻译

学术文献翻译模型,支持多种主流文档格式。

立即体验