• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

神经网络对实值布尔函数的表示及逼近率

Representations and rates of approximation of real-valued Boolean functions by neural networks.

作者信息

Kůrková V, Savický P, Hlavácková K

机构信息

Institute of Computer Science, Academy of Sciences of the Czech Republic, Pod vodárensku vezi; 2, P.O. Box 5 182 07, Prague, Czech Republic

出版信息

Neural Netw. 1998 Jun;11(4):651-659. doi: 10.1016/s0893-6080(98)00039-2.

DOI:10.1016/s0893-6080(98)00039-2
PMID:12662803
Abstract

We give upper bounds on rates of approximation of real-valued functions of d Boolean variables by one-hidden-layer perceptron networks. Our bounds are of the form c/n where c depends on certain norms of the function being approximated and n is the number of hidden units. We describe sets of functions where these norms grow either polynomially or exponentially with d.

摘要

我们给出了由单隐藏层感知器网络对d个布尔变量的实值函数进行逼近的速率的上界。我们的界具有c/n的形式,其中c取决于被逼近函数的某些范数,n是隐藏单元的数量。我们描述了这些范数随d呈多项式增长或指数增长的函数集。

相似文献

1
Representations and rates of approximation of real-valued Boolean functions by neural networks.神经网络对实值布尔函数的表示及逼近率
Neural Netw. 1998 Jun;11(4):651-659. doi: 10.1016/s0893-6080(98)00039-2.
2
An integral upper bound for neural network approximation.神经网络逼近的一个积分上界。
Neural Comput. 2009 Oct;21(10):2970-89. doi: 10.1162/neco.2009.04-08-745.
3
Minimization of error functionals over perceptron networks.感知器网络上误差泛函的最小化。
Neural Comput. 2008 Jan;20(1):252-70. doi: 10.1162/neco.2008.20.1.252.
4
Probabilistic lower bounds for approximation by shallow perceptron networks.浅层感知器网络逼近的概率下界
Neural Netw. 2017 Jul;91:34-41. doi: 10.1016/j.neunet.2017.04.003. Epub 2017 Apr 19.
5
Approximation bounds for smooth functions in C(IRd) by neural and mixture networks.
IEEE Trans Neural Netw. 1998;9(5):969-78. doi: 10.1109/72.712173.
6
On the geometric convergence of neural approximations.关于神经逼近的几何收敛性。
IEEE Trans Neural Netw. 2002;13(2):274-82. doi: 10.1109/72.991414.
7
Bounds on the number of hidden neurons in three-layer binary neural networks.三层二进制神经网络中隐藏神经元数量的界限。
Neural Netw. 2003 Sep;16(7):995-1002. doi: 10.1016/S0893-6080(03)00006-6.
8
Universal approximation theorem for vector- and hypercomplex-valued neural networks.向量值和超复数值神经网络的通用逼近定理。
Neural Netw. 2024 Dec;180:106632. doi: 10.1016/j.neunet.2024.106632. Epub 2024 Aug 13.
9
Generalization and capacity of extensively large two-layered perceptrons.超大规模双层感知器的泛化能力
Phys Rev E Stat Nonlin Soft Matter Phys. 2002 Sep;66(3 Pt 2A):036138. doi: 10.1103/PhysRevE.66.036138. Epub 2002 Sep 27.
10
Approximations of Functions by a Multilayer Perceptron: a New Approach.用多层感知器逼近函数:一种新方法。
Neural Netw. 1997 Aug;10(6):1069-1081. doi: 10.1016/s0893-6080(97)00010-5.

引用本文的文献

1
Rosenblatt's First Theorem and Frugality of Deep Learning.罗森布拉特第一定理与深度学习的节俭性
Entropy (Basel). 2022 Nov 10;24(11):1635. doi: 10.3390/e24111635.