• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

具有修正幂单元激活函数的浅层神经网络的积分表示。

Integral representations of shallow neural network with rectified power unit activation function.

机构信息

Johann Radon Institute, Altenberger Straße 69, A-4040 Linz, Austria.

Johann Radon Institute, Altenberger Straße 69, A-4040 Linz, Austria; Faculty of Mathematics, University of Vienna, Oskar-Morgenstern-Platz 1, A-1090 Vienna, Austria; Research Platform Data Science @ Uni Vienna, Währinger Straße 29/S6, A-1090 Vienna, Austria.

出版信息

Neural Netw. 2022 Nov;155:536-550. doi: 10.1016/j.neunet.2022.09.005. Epub 2022 Sep 14.

DOI:10.1016/j.neunet.2022.09.005
PMID:36166980
Abstract

In this paper we characterize the set of functions that can be represented by infinite width neural networks with RePU activation function max(0,x), when the network coefficients are regularized by an ℓ (quasi)norm. Compared to the more well-known ReLU activation function (which corresponds to p=1), the RePU activation functions exhibit a greater degree of smoothness which makes them preferable in several applications. Our main result shows that such representations are possible for a given function if and only if the function is κ-order Lipschitz and its R-norm is finite. This extends earlier work on this topic that has been restricted to the case of the ReLU activation function and coefficient bounds with respect to the ℓ norm. Since for q<2, ℓ regularizations are known to promote sparsity, our results also shed light on the ability to obtain sparse neural network representations.

摘要

在本文中,我们刻画了具有 RePU 激活函数 max(0,x)的无限宽度神经网络可以表示的函数集合,当网络系数通过 ℓ(拟)范数正则化时。与更为人熟知的 ReLU 激活函数(对应于 p=1)相比,RePU 激活函数表现出更大的平滑度,这使得它们在许多应用中更受欢迎。我们的主要结果表明,如果函数是 κ 阶 Lipschitz 函数并且其 R 范数有限,则存在这样的表示。这扩展了之前关于这个主题的工作,这些工作仅限于 ReLU 激活函数和关于 ℓ 范数的系数界的情况。由于对于 q<2,已知 ℓ 正则化促进稀疏性,我们的结果也揭示了获得稀疏神经网络表示的能力。

相似文献

1
Integral representations of shallow neural network with rectified power unit activation function.具有修正幂单元激活函数的浅层神经网络的积分表示。
Neural Netw. 2022 Nov;155:536-550. doi: 10.1016/j.neunet.2022.09.005. Epub 2022 Sep 14.
2
Deep ReLU neural networks in high-dimensional approximation.高维逼近中的深度 ReLU 神经网络。
Neural Netw. 2021 Oct;142:619-635. doi: 10.1016/j.neunet.2021.07.027. Epub 2021 Jul 29.
3
Analytical Bounds on the Local Lipschitz Constants of ReLU Networks.ReLU网络局部Lipschitz常数的解析界
IEEE Trans Neural Netw Learn Syst. 2024 Oct;35(10):13902-13913. doi: 10.1109/TNNLS.2023.3273228. Epub 2024 Oct 7.
4
On minimal representations of shallow ReLU networks.关于浅层 ReLU 网络的最小表示。
Neural Netw. 2022 Apr;148:121-128. doi: 10.1016/j.neunet.2022.01.006. Epub 2022 Jan 21.
5
Neural networks with ReLU powers need less depth.ReLU 激活函数的神经网络需要的深度更小。
Neural Netw. 2024 Apr;172:106073. doi: 10.1016/j.neunet.2023.12.027. Epub 2023 Dec 19.
6
Dimension independent bounds for general shallow networks.广义浅层网络的维数无关界。
Neural Netw. 2020 Mar;123:142-152. doi: 10.1016/j.neunet.2019.11.006. Epub 2019 Nov 22.
7
Capacity bounds for hyperbolic neural network representations of latent tree structures.潜在树结构的双曲神经网络表示的容量边界。
Neural Netw. 2024 Oct;178:106420. doi: 10.1016/j.neunet.2024.106420. Epub 2024 Jun 4.
8
Approximation of smooth functionals using deep ReLU networks.使用深度 ReLU 网络逼近光滑泛函。
Neural Netw. 2023 Sep;166:424-436. doi: 10.1016/j.neunet.2023.07.012. Epub 2023 Jul 18.
9
Error bounds for approximations with deep ReLU networks.深度 ReLU 网络逼近的误差界。
Neural Netw. 2017 Oct;94:103-114. doi: 10.1016/j.neunet.2017.07.002. Epub 2017 Jul 13.
10
Random Sketching for Neural Networks With ReLU.ReLU 神经网络的随机草图。
IEEE Trans Neural Netw Learn Syst. 2021 Feb;32(2):748-762. doi: 10.1109/TNNLS.2020.2979228. Epub 2021 Feb 4.