• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

具有Theta(1)时间复杂度的胜者全得神经网络。

k-winners-take-all neural net with Theta(1) time complexity.

作者信息

Hsu T C, Wang S D

机构信息

Dept. of Electr. Eng., Nat. Taiwan Univ., Taipei.

出版信息

IEEE Trans Neural Netw. 1997;8(6):1557-61. doi: 10.1109/72.641477.

DOI:10.1109/72.641477
PMID:18255756
Abstract

In this article we present a k-winners-take-all (k-WTA) neural net that is established based on the concept of the constant time sorting machine by Hsu and Wang. It fits some specific applications, such as real-time processing, since its Theta(1) time complexity is independent to the problem size. The proposed k-WTA neural net produces the solution in constant time while the Hopfield network requires a relatively long transient to converge to the solution from some initial states.

摘要

在本文中,我们提出了一种基于许和王的恒定时间排序机概念建立的k胜者全得(k-WTA)神经网络。它适用于一些特定应用,如实时处理,因为其Theta(1)时间复杂度与问题规模无关。所提出的k-WTA神经网络在恒定时间内产生解决方案,而霍普菲尔德网络从某些初始状态收敛到解决方案需要相对较长的暂态时间。

相似文献

1
k-winners-take-all neural net with Theta(1) time complexity.具有Theta(1)时间复杂度的胜者全得神经网络。
IEEE Trans Neural Netw. 1997;8(6):1557-61. doi: 10.1109/72.641477.
2
K-winners-take-all circuit with O(N) complexity.具有O(N)复杂度的胜者全得电路。
IEEE Trans Neural Netw. 1995;6(3):776-8. doi: 10.1109/72.377986.
3
Initialization-Based k-Winners-Take-All Neural Network Model Using Modified Gradient Descent.基于初始化的采用改进梯度下降法的k胜者全得神经网络模型
IEEE Trans Neural Netw Learn Syst. 2023 Aug;34(8):4130-4138. doi: 10.1109/TNNLS.2021.3123240. Epub 2023 Aug 4.
4
A general mean-based iterative winner-take-all neural network.一种基于均值的通用迭代胜者全得神经网络。
IEEE Trans Neural Netw. 1995;6(1):14-24. doi: 10.1109/72.363454.
5
A novel recurrent neural network with one neuron and finite-time convergence for k-winners-take-all operation.一种具有单个神经元且用于k胜者全得操作的有限时间收敛的新型递归神经网络。
IEEE Trans Neural Netw. 2010 Jul;21(7):1140-8. doi: 10.1109/TNN.2010.2050781.
6
Distributed k-Winners-Take-All Network: An Optimization Perspective.分布式胜者全得网络:一种优化视角。
IEEE Trans Cybern. 2023 Aug;53(8):5069-5081. doi: 10.1109/TCYB.2022.3170236. Epub 2023 Jul 18.
7
A new recurrent neural network for solving convex quadratic programming problems with an application to the k-winners-take-all problem.一种用于求解凸二次规划问题的新型递归神经网络及其在k胜者全得问题中的应用。
IEEE Trans Neural Netw. 2009 Apr;20(4):654-64. doi: 10.1109/TNN.2008.2011266. Epub 2009 Feb 18.
8
A class of finite-time dual neural networks for solving quadratic programming problems and its k-winners-take-all application.一类求解二次规划问题的有限时间对偶神经网络及其 k-胜者全拿应用
Neural Netw. 2013 Mar;39:27-39. doi: 10.1016/j.neunet.2012.12.009. Epub 2013 Jan 7.
9
Distributed k-winners-take-all via multiple neural networks with inertia.分布式带惯性的多神经网络 k-胜者全拿。
Neural Netw. 2022 Jul;151:385-397. doi: 10.1016/j.neunet.2022.04.005. Epub 2022 Apr 12.
10
Two k-winners-take-all networks with discontinuous activation functions.具有不连续激活函数的两个胜者全得网络。
Neural Netw. 2008 Mar-Apr;21(2-3):406-13. doi: 10.1016/j.neunet.2007.12.044. Epub 2007 Dec 31.