• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

关于神经网络内核与存储容量问题

On Neural Network Kernels and the Storage Capacity Problem.

作者信息

Zavatone-Veth Jacob A, Pehlevan Cengiz

机构信息

Department of Physics and Center for Brain Science, Harvard University, Cambridge, MA 02138, U.S.A.

Center for Brain Science and John A. Paulson School of Engineering and Applied Sciences, Harvard University, Cambridge, MA 02138, U.S.A.

出版信息

Neural Comput. 2022 Apr 15;34(5):1136-1142. doi: 10.1162/neco_a_01494.

DOI:10.1162/neco_a_01494
PMID:35344992
Abstract

In this short note, we reify the connection between work on the storage capacity problem in wide two-layer treelike neural networks and the rapidly growing body of literature on kernel limits of wide neural networks. Concretely, we observe that the "effective order parameter" studied in the statistical mechanics literature is exactly equivalent to the infinite-width neural network gaussian process kernel. This correspondence connects the expressivity and trainability of wide two-layer neural networks.

摘要

在本简短笔记中,我们明确了关于宽两层树状神经网络存储容量问题的研究与关于宽神经网络核极限的迅速增长的文献之间的联系。具体而言,我们观察到统计力学文献中研究的“有效序参量”与无限宽度神经网络高斯过程核完全等价。这种对应关系将宽两层神经网络的表达能力和可训练性联系起来。

相似文献

1
On Neural Network Kernels and the Storage Capacity Problem.关于神经网络内核与存储容量问题
Neural Comput. 2022 Apr 15;34(5):1136-1142. doi: 10.1162/neco_a_01494.
2
Simple, fast, and flexible framework for matrix completion with infinite width neural networks.具有无限宽度神经网络的矩阵完成的简单、快速和灵活框架。
Proc Natl Acad Sci U S A. 2022 Apr 19;119(16):e2115064119. doi: 10.1073/pnas.2115064119. Epub 2022 Apr 11.
3
VC dimensions of group convolutional neural networks.群卷积神经网络的 VC 维数。
Neural Netw. 2024 Jan;169:462-474. doi: 10.1016/j.neunet.2023.10.012. Epub 2023 Oct 27.
4
Activation function dependence of the storage capacity of treelike neural networks.树状神经网络存储容量的激活函数依赖性
Phys Rev E. 2021 Feb;103(2):L020301. doi: 10.1103/PhysRevE.103.L020301.
5
Graph kernels combined with the neural network on protein classification.图核与神经网络相结合用于蛋白质分类
J Bioinform Comput Biol. 2019 Oct;17(5):1950030. doi: 10.1142/S0219720019500306.
6
Efficient Measure for the Expressivity of Variational Quantum Algorithms.变分量子算法表达能力的有效度量。
Phys Rev Lett. 2022 Feb 25;128(8):080506. doi: 10.1103/PhysRevLett.128.080506.
7
Comparing fixed and variable-width Gaussian networks.比较固定宽度和可变宽度高斯网络。
Neural Netw. 2014 Sep;57:23-8. doi: 10.1016/j.neunet.2014.05.005. Epub 2014 May 20.
8
GHNN: Graph Harmonic Neural Networks for semi-supervised graph-level classification.GHNN:用于半监督图级分类的图谐波神经网络。
Neural Netw. 2022 Jul;151:70-79. doi: 10.1016/j.neunet.2022.03.018. Epub 2022 Mar 24.
9
Correspondence between neuroevolution and gradient descent.神经进化与梯度下降的对应关系。
Nat Commun. 2021 Nov 2;12(1):6317. doi: 10.1038/s41467-021-26568-2.
10
Application of convolution neural network in medical image processing.卷积神经网络在医学图像处理中的应用。
Technol Health Care. 2021;29(2):407-417. doi: 10.3233/THC-202657.

引用本文的文献

1
Summary statistics of learning link changing neural representations to behavior.将学习链接变化的神经表征与行为联系起来的总结统计量。
Front Neural Circuits. 2025 Aug 29;19:1618351. doi: 10.3389/fncir.2025.1618351. eCollection 2025.
2
Summary statistics of learning link changing neural representations to behavior.将学习链接改变神经表征与行为联系起来的汇总统计数据。
ArXiv. 2025 Jul 14:arXiv:2504.16920v2.