• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于拉格朗日多项式优化的神经网络插值算子。

Neural network interpolation operators optimized by Lagrange polynomial.

机构信息

School of Mathematics, Hangzhou Normal University, Hangzhou, Zhejiang 310036, China.

Department of Mathematics and Statistics, St. Francis Xavier University, Antigonish, NS B2G 2W5, Canada.

出版信息

Neural Netw. 2022 Sep;153:179-191. doi: 10.1016/j.neunet.2022.06.007. Epub 2022 Jun 10.

DOI:10.1016/j.neunet.2022.06.007
PMID:35728337
Abstract

In this paper, we introduce a new type of interpolation operators by using Lagrange polynomials of degree r, which can be regarded as feedforward neural networks with four layers. The approximation rate of the new operators can be estimated by the (r+1)-th modulus of smoothness of the objective functions. By adding some smooth assumptions on the activation function, we establish two important inequalities of the derivatives of the operators. With these two inequalities, by using the K-functional and Berens-Lorentz lemma in approximation theory, we establish the converse theorem of approximation. We also give the Voronovskaja-type asymptotic estimation of the operators for smooth functions. Furthermore, we extend our operators to the multivariate case, and investigate their approximation properties for multivariate functions. Finally, some numerical examples are given to demonstrate the validity of the theoretical results obtained and the superiority of the operators.

摘要

在本文中,我们通过使用阶数为 r 的 Lagrange 多项式引入了一种新型的插值算子,它可以被视为具有四层的前馈神经网络。新算子的逼近速率可以通过目标函数的(r+1)阶光滑模来估计。通过对激活函数添加一些光滑假设,我们建立了算子导数的两个重要不等式。利用这两个不等式,通过使用逼近论中的 K-泛函和 Berens-Lorentz 引理,我们建立了逼近的逆定理。我们还给出了算子对光滑函数的 Voronovskaja 型渐近估计。此外,我们将算子推广到多元情形,并研究了它们对多元函数的逼近性质。最后,给出了一些数值例子来说明所得到的理论结果的有效性和算子的优越性。

相似文献

1
Neural network interpolation operators optimized by Lagrange polynomial.基于拉格朗日多项式优化的神经网络插值算子。
Neural Netw. 2022 Sep;153:179-191. doi: 10.1016/j.neunet.2022.06.007. Epub 2022 Jun 10.
2
Neural network operators: Constructive interpolation of multivariate functions.神经网络算子:多元函数的构造插值。
Neural Netw. 2015 Jul;67:28-36. doi: 10.1016/j.neunet.2015.02.002. Epub 2015 Feb 8.
3
Multivariate neural network operators with sigmoidal activation functions.具有 Sigmoid 激活函数的多元神经网络算子。
Neural Netw. 2013 Dec;48:72-7. doi: 10.1016/j.neunet.2013.07.009. Epub 2013 Aug 6.
4
Pointwise and uniform approximation by multivariate neural network operators of the max-product type.多元神经网络算子的最大乘积型的逐点和一致逼近。
Neural Netw. 2016 Sep;81:81-90. doi: 10.1016/j.neunet.2016.06.002. Epub 2016 Jun 17.
5
Multivariate sigmoidal neural network approximation.多元 Sigmoidal 神经网络逼近。
Neural Netw. 2011 May;24(4):378-86. doi: 10.1016/j.neunet.2011.01.003. Epub 2011 Jan 25.
6
Approximation properties of -Bernstein operators.-伯恩斯坦算子的逼近性质。
J Inequal Appl. 2018;2018(1):61. doi: 10.1186/s13660-018-1653-7. Epub 2018 Mar 16.
7
Approximation results for neural network operators activated by sigmoidal functions.基于 Sigmoid 函数激活的神经网络算子的逼近结果。
Neural Netw. 2013 Aug;44:101-6. doi: 10.1016/j.neunet.2013.03.015. Epub 2013 Mar 27.
8
Approximation of smooth functionals using deep ReLU networks.使用深度 ReLU 网络逼近光滑泛函。
Neural Netw. 2023 Sep;166:424-436. doi: 10.1016/j.neunet.2023.07.012. Epub 2023 Jul 18.
9
Approximation properties of -Kantorovich operators.-Kantorovich算子的逼近性质。
J Inequal Appl. 2018;2018(1):202. doi: 10.1186/s13660-018-1795-7. Epub 2018 Aug 2.
10
Approximation rates for neural networks with encodable weights in smoothness spaces.可编码权值神经网络在光滑性空间中的逼近速率。
Neural Netw. 2021 Feb;134:107-130. doi: 10.1016/j.neunet.2020.11.010. Epub 2020 Nov 27.