• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

关于浅层 ReLU 网络的最小表示。

On minimal representations of shallow ReLU networks.

机构信息

Institut für Mathematische Stochastik, Fachbereich 10: Mathematik und Informatik, Westfälische Wilhelms-Universität Münster, Orléans-Ring 10, 48149 Münster, Germany.

出版信息

Neural Netw. 2022 Apr;148:121-128. doi: 10.1016/j.neunet.2022.01.006. Epub 2022 Jan 21.

DOI:10.1016/j.neunet.2022.01.006
PMID:35123261
Abstract

The realization function of a shallow ReLU network is a continuous and piecewise affine function f:R→R, where the domain R is partitioned by a set of n hyperplanes into cells on which f is affine. We show that the minimal representation for f uses either n, n+1 or n+2 neurons and we characterize each of the three cases. In the particular case, where the input layer is one-dimensional, minimal representations always use at most n+1 neurons but in all higher dimensional settings there are functions for which n+2 neurons are needed. Then we show that the set of minimal networks representing f forms a C-submanifold M and we derive the dimension and the number of connected components of M. Additionally, we give a criterion for the hyperplanes that guarantees that a continuous, piecewise affine function is the realization function of an appropriate shallow ReLU network.

摘要

浅层 ReLU 网络的实现函数是一个连续的分段仿射函数 f:R→R,其中 R 的定义域被一组 n 个超平面划分为 f 是仿射的单元。我们证明了 f 的最小表示使用 n、n+1 或 n+2 个神经元,并对三种情况进行了特征描述。在输入层是一维的特殊情况下,最小表示始终使用最多 n+1 个神经元,但在所有更高维的情况下,都有需要 n+2 个神经元的函数。然后我们证明了表示 f 的最小网络的集合形成一个 C-子流形 M,并推导出 M 的维数和连通分量的数量。此外,我们给出了一个保证连续分段仿射函数是适当的浅层 ReLU 网络的实现函数的超平面的准则。

相似文献

1
On minimal representations of shallow ReLU networks.关于浅层 ReLU 网络的最小表示。
Neural Netw. 2022 Apr;148:121-128. doi: 10.1016/j.neunet.2022.01.006. Epub 2022 Jan 21.
2
Optimal approximation of piecewise smooth functions using deep ReLU neural networks.使用深度 ReLU 神经网络对分段光滑函数进行最优逼近。
Neural Netw. 2018 Dec;108:296-330. doi: 10.1016/j.neunet.2018.08.019. Epub 2018 Sep 7.
3
Integral representations of shallow neural network with rectified power unit activation function.具有修正幂单元激活函数的浅层神经网络的积分表示。
Neural Netw. 2022 Nov;155:536-550. doi: 10.1016/j.neunet.2022.09.005. Epub 2022 Sep 14.
4
Deep ReLU neural networks in high-dimensional approximation.高维逼近中的深度 ReLU 神经网络。
Neural Netw. 2021 Oct;142:619-635. doi: 10.1016/j.neunet.2021.07.027. Epub 2021 Jul 29.
5
Dimension independent bounds for general shallow networks.广义浅层网络的维数无关界。
Neural Netw. 2020 Mar;123:142-152. doi: 10.1016/j.neunet.2019.11.006. Epub 2019 Nov 22.
6
Random Sketching for Neural Networks With ReLU.ReLU 神经网络的随机草图。
IEEE Trans Neural Netw Learn Syst. 2021 Feb;32(2):748-762. doi: 10.1109/TNNLS.2020.2979228. Epub 2021 Feb 4.
7
ReLU Networks Are Universal Approximators via Piecewise Linear or Constant Functions.ReLU 网络通过分段线性或常数函数实现通用逼近。
Neural Comput. 2020 Nov;32(11):2249-2278. doi: 10.1162/neco_a_01316. Epub 2020 Sep 18.
8
A deep network construction that adapts to intrinsic dimensionality beyond the domain.一种适应超出该领域固有维度的深度网络结构。
Neural Netw. 2021 Sep;141:404-419. doi: 10.1016/j.neunet.2021.06.004. Epub 2021 Jun 8.
9
Integrating geometries of ReLU feedforward neural networks.整合ReLU前馈神经网络的几何结构。
Front Big Data. 2023 Nov 14;6:1274831. doi: 10.3389/fdata.2023.1274831. eCollection 2023.
10
Approximation of smooth functionals using deep ReLU networks.使用深度 ReLU 网络逼近光滑泛函。
Neural Netw. 2023 Sep;166:424-436. doi: 10.1016/j.neunet.2023.07.012. Epub 2023 Jul 18.