• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

潜在树结构的双曲神经网络表示的容量边界。

Capacity bounds for hyperbolic neural network representations of latent tree structures.

机构信息

Department of Mathematics, McMaster University, Canada; Vector Institute, Canada.

University of Oxford, UK.

出版信息

Neural Netw. 2024 Oct;178:106420. doi: 10.1016/j.neunet.2024.106420. Epub 2024 Jun 4.

DOI:10.1016/j.neunet.2024.106420
PMID:38901097
Abstract

We study the representation capacity of deep hyperbolic neural networks (HNNs) with a ReLU activation function. We establish the first proof that HNNs can ɛ-isometrically embed any finite weighted tree into a hyperbolic space of dimension d at least equal to 2 with prescribed sectional curvature κ<0, for any ɛ>1 (where ɛ=1 being optimal). We establish rigorous upper bounds for the network complexity on an HNN implementing the embedding. We find that the network complexity of HNN implementing the graph representation is independent of the representation fidelity/distortion. We contrast this result against our lower bounds on distortion which any ReLU multi-layer perceptron (MLP) must exert when embedding a tree with L>2 leaves into a d-dimensional Euclidean space, which we show at least Ω(L); independently of the depth, width, and (possibly discontinuous) activation function defining the MLP.

摘要

我们研究了具有 ReLU 激活函数的深层双曲神经网络 (HNN) 的表示能力。我们首次证明,对于任何 ɛ>1(其中 ɛ=1 是最优的),HNN 可以在至少维度为 d(d>=2)的具有规定截面曲率 κ<0 的双曲空间中 ɛ-isometrically 嵌入任何有限加权树。我们为在实现嵌入的 HNN 上的网络复杂度建立了严格的上界。我们发现,实现图表示的 HNN 的网络复杂度与表示保真度/失真无关。我们将这一结果与我们对任何具有 L>2 个叶子的树嵌入到 d 维欧几里得空间时 ReLU 多层感知机 (MLP) 必须施加的失真的下界进行对比,我们证明了至少 Ω(L);这与定义 MLP 的深度、宽度和(可能不连续的)激活函数无关。

相似文献

1
Capacity bounds for hyperbolic neural network representations of latent tree structures.潜在树结构的双曲神经网络表示的容量边界。
Neural Netw. 2024 Oct;178:106420. doi: 10.1016/j.neunet.2024.106420. Epub 2024 Jun 4.
2
Hyperbolic Graph Convolutional Neural Networks.双曲图卷积神经网络
Adv Neural Inf Process Syst. 2019 Dec;32:4869-4880.
3
Deep ReLU neural networks in high-dimensional approximation.高维逼近中的深度 ReLU 神经网络。
Neural Netw. 2021 Oct;142:619-635. doi: 10.1016/j.neunet.2021.07.027. Epub 2021 Jul 29.
4
Hyperbolic Deep Neural Networks: A Survey.双曲深度神经网络:综述
IEEE Trans Pattern Anal Mach Intell. 2022 Dec;44(12):10023-10044. doi: 10.1109/TPAMI.2021.3136921. Epub 2022 Nov 7.
5
Representation Tradeoffs for Hyperbolic Embeddings.双曲嵌入的表示权衡
Proc Mach Learn Res. 2018;80:4460-4469.
6
Gating-Enhanced Hierarchical Structure Learning in Hyperbolic Space and Multi-scale Neighbor Topology Learning in Euclidean Space for Prediction of Microbe-Drug Associations.用于预测微生物-药物关联的双曲空间中的门控增强层次结构学习和欧几里得空间中的多尺度邻居拓扑学习。
J Chem Inf Model. 2024 Oct 14;64(19):7806-7815. doi: 10.1021/acs.jcim.4c01340. Epub 2024 Sep 26.
7
Learning Hyperbolic Embedding for Phylogenetic Tree Placement and Updates.用于系统发育树放置和更新的学习双曲嵌入
Biology (Basel). 2022 Aug 24;11(9):1256. doi: 10.3390/biology11091256.
8
Nested Hyperbolic Spaces for Dimensionality Reduction and Hyperbolic NN Design.用于降维和双曲神经网络设计的嵌套双曲空间
Proc IEEE Comput Soc Conf Comput Vis Pattern Recognit. 2022 Jun;2022:356-365. doi: 10.1109/cvpr52688.2022.00045. Epub 2022 Sep 27.
9
Optimal approximation of piecewise smooth functions using deep ReLU neural networks.使用深度 ReLU 神经网络对分段光滑函数进行最优逼近。
Neural Netw. 2018 Dec;108:296-330. doi: 10.1016/j.neunet.2018.08.019. Epub 2018 Sep 7.
10
Novel metric for hyperbolic phylogenetic tree embeddings.双曲系统发生树嵌入的新度量。
Biol Methods Protoc. 2021 Mar 27;6(1):bpab006. doi: 10.1093/biomethods/bpab006. eCollection 2021.