• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

向量衍生变换绑定:神经网络中深度符号处理的改进绑定操作。

Vector-Derived Transformation Binding: An Improved Binding Operation for Deep Symbol-Like Processing in Neural Networks.

机构信息

Centre for Theoretical Neuroscience, University of Waterloo, Waterloo, ON N2L 3G1 Canada

出版信息

Neural Comput. 2019 May;31(5):849-869. doi: 10.1162/neco_a_01179. Epub 2019 Mar 18.

DOI:10.1162/neco_a_01179
PMID:30883282
Abstract

We present a new binding operation, vector-derived transformation binding (VTB), for use in vector symbolic architectures (VSA). The performance of VTB is compared to circular convolution, used in holographic reduced representations (HRRs), in terms of list and stack encoding capacity. A special focus is given to the possibility of a neural implementation by the means of the Neural Engineering Framework (NEF). While the scaling of required neural resources is slightly worse for VTB, it is found to be on par with circular convolution for list encoding and better for encoding of stacks. Furthermore, VTB influences the vector length less, which also benefits a neural implementation. Consequently, we argue that VTB is an improvement over HRRs for neurally implemented VSAs.

摘要

我们提出了一种新的绑定操作,即向量衍生变换绑定(VTB),用于向量符号体系结构(VSA)。根据列表和堆栈编码容量,将 VTB 的性能与用于全息简化表示(HRR)的循环卷积进行了比较。特别关注通过神经工程框架(NEF)实现的可能性。虽然 VTB 所需的神经资源的扩展稍微差一些,但发现它在列表编码方面与循环卷积相当,在堆栈编码方面更好。此外,VTB 对向量长度的影响较小,这也有利于神经实现。因此,我们认为 VTB 是对神经实现的 VSA 的 HRR 的改进。

相似文献

1
Vector-Derived Transformation Binding: An Improved Binding Operation for Deep Symbol-Like Processing in Neural Networks.向量衍生变换绑定:神经网络中深度符号处理的改进绑定操作。
Neural Comput. 2019 May;31(5):849-869. doi: 10.1162/neco_a_01179. Epub 2019 Mar 18.
2
Variable Binding for Sparse Distributed Representations: Theory and Applications.变量绑定的稀疏分布式表示:理论与应用。
IEEE Trans Neural Netw Learn Syst. 2023 May;34(5):2191-2204. doi: 10.1109/TNNLS.2021.3105949. Epub 2023 May 2.
3
Encoding structure in holographic reduced representations.全息压缩表示中的编码结构。
Can J Exp Psychol. 2013 Jun;67(2):79-93. doi: 10.1037/a0030301. Epub 2012 Dec 3.
4
Resonator Networks, 1: An Efficient Solution for Factoring High-Dimensional, Distributed Representations of Data Structures.谐振器网络,1:一种高效的解决方案,用于对数据结构的高维分布式表示进行分解。
Neural Comput. 2020 Dec;32(12):2311-2331. doi: 10.1162/neco_a_01331. Epub 2020 Oct 20.
5
An Investigation of Vehicle Behavior Prediction Using a Vector Power Representation to Encode Spatial Positions of Multiple Objects and Neural Networks.利用向量功率表示法对多个物体的空间位置进行编码并结合神经网络的车辆行为预测研究
Front Neurorobot. 2019 Oct 16;13:84. doi: 10.3389/fnbot.2019.00084. eCollection 2019.
6
Representing objects, relations, and sequences.表示对象、关系和序列。
Neural Comput. 2013 Aug;25(8):2038-78. doi: 10.1162/NECO_a_00467. Epub 2013 Apr 22.
7
Hyperseed: Unsupervised Learning With Vector Symbolic Architectures.超种子:基于向量符号架构的无监督学习。
IEEE Trans Neural Netw Learn Syst. 2024 May;35(5):6583-6597. doi: 10.1109/TNNLS.2022.3211274. Epub 2024 May 2.
8
Hybrid Deep Neural Network Scheduler for Job-Shop Problem Based on Convolution Two-Dimensional Transformation.基于卷积二维变换的作业车间问题混合深度神经网络调度器。
Comput Intell Neurosci. 2019 Jul 10;2019:7172842. doi: 10.1155/2019/7172842. eCollection 2019.
9
Efficient Hyperdimensional Computing With Spiking Phasors.基于脉冲相位器的高效超维计算
Neural Comput. 2024 Aug 19;36(9):1886-1911. doi: 10.1162/neco_a_01693.
10
A neural-network architecture for syntax analysis.一种用于句法分析的神经网络架构。
IEEE Trans Neural Netw. 1999;10(1):94-114. doi: 10.1109/72.737497.

引用本文的文献

1
Modelling neural probabilistic computation using vector symbolic architectures.使用向量符号架构对神经概率计算进行建模。
Cogn Neurodyn. 2024 Dec;18(6):1-24. doi: 10.1007/s11571-023-10031-7. Epub 2023 Dec 16.
2
Neural dynamic foundations of a theory of higher cognition: the case of grounding nested phrases.高等认知理论的神经动力学基础:以嵌套短语的基础为例。
Cogn Neurodyn. 2024 Apr;18(2):557-579. doi: 10.1007/s11571-023-10007-7. Epub 2023 Oct 4.
3
Variable Binding for Sparse Distributed Representations: Theory and Applications.
变量绑定的稀疏分布式表示:理论与应用。
IEEE Trans Neural Netw Learn Syst. 2023 May;34(5):2191-2204. doi: 10.1109/TNNLS.2021.3105949. Epub 2023 May 2.
4
Structured sequence processing and combinatorial binding: neurobiologically and computationally informed hypotheses.结构序列处理和组合绑定:神经生物学和计算信息假设。
Philos Trans R Soc Lond B Biol Sci. 2020 Feb 3;375(1791):20190304. doi: 10.1098/rstb.2019.0304. Epub 2019 Dec 16.