• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

随机神经网络的二元分类

Binary classification by stochastic neural nets.

作者信息

Nadas A

机构信息

Res. Div., IBM Thomas J. Watson Res. Center, Yorktown Heights, NY.

出版信息

IEEE Trans Neural Netw. 1995;6(2):488-91. doi: 10.1109/72.363484.

DOI:10.1109/72.363484
PMID:18263330
Abstract

We classify points in R(d) (feature vector space) by functions related to feedforward artificial neural networks. These functions, dubbed "stochastic neural nets", arise in a natural way from probabilistic as well as from statistical considerations. The probabilistic idea is to define a classifying bit locally by using the sign of a hidden state-dependent noisy linear function of the feature vector as a new (d+1)th coordinate of the vector. This (d+1)-dimensional distribution is approximated by a mixture distribution. The statistical idea is that the approximating mixtures, and hence the a posteriori class probability functions (stochastic neural nets) defined by them, can be conveniently trained either by maximum likelihood or by a Bayes criterion through the use of an appropriate expectation-maximization algorithm.

摘要

我们通过与前馈人工神经网络相关的函数对R(d)(特征向量空间)中的点进行分类。这些函数被称为“随机神经网络”,它们以自然的方式源于概率以及统计方面的考虑。概率方面的想法是通过使用特征向量的依赖于隐藏状态的噪声线性函数的符号作为向量的新的(d + 1)维坐标来局部定义一个分类位。这个(d + 1)维分布由混合分布近似。统计方面的想法是,近似混合以及由此由它们定义的后验类概率函数(随机神经网络)可以通过使用适当的期望最大化算法,方便地通过最大似然法或贝叶斯准则进行训练。

相似文献

1
Binary classification by stochastic neural nets.随机神经网络的二元分类
IEEE Trans Neural Netw. 1995;6(2):488-91. doi: 10.1109/72.363484.
2
Multilayer neural networks and Bayes decision theory.多层神经网络与贝叶斯决策理论。
Neural Netw. 1998 Mar 31;11(2):209-213. doi: 10.1016/s0893-6080(97)00120-2.
3
Semantic Fisher Scores for Task Transfer: Using Objects to Classify Scenes.用于任务迁移的语义 Fisher 分数:使用对象对场景进行分类。
IEEE Trans Pattern Anal Mach Intell. 2020 Dec;42(12):3102-3118. doi: 10.1109/TPAMI.2019.2921960. Epub 2020 Nov 3.
4
Probabilistic self-organizing maps for continuous data.用于连续数据的概率自组织映射
IEEE Trans Neural Netw. 2010 Oct;21(10):1543-54. doi: 10.1109/TNN.2010.2060208. Epub 2010 Aug 19.
5
Online learning of single- and multivalued functions with an infinite mixture of linear experts.在线学习具有无限线性专家混合物的单值和多值函数。
Neural Comput. 2013 Nov;25(11):3044-91. doi: 10.1162/NECO_a_00510. Epub 2013 Sep 3.
6
Best harmony, unified RPCL and automated model selection for unsupervised and supervised learning on Gaussian mixtures, three-layer nets and ME-RBF-SVM models.高斯混合模型、三层网络和ME-RBF-SVM模型上无监督和监督学习的最佳协调、统一RPCL与自动模型选择。
Int J Neural Syst. 2001 Feb;11(1):43-69. doi: 10.1142/S0129065701000497.
7
A model selection algorithm for a posteriori probability estimation with neural networks.一种用于神经网络后验概率估计的模型选择算法。
IEEE Trans Neural Netw. 2005 Jul;16(4):799-809. doi: 10.1109/TNN.2005.849826.
8
A maximum a posteriori probability expectation maximization algorithm for image reconstruction in emission tomography.发射型断层成像中图像重建的最大后验概率期望最大化算法。
IEEE Trans Med Imaging. 1987;6(3):185-92. doi: 10.1109/TMI.1987.4307826.
9
Maximum likelihood training of probabilistic neural networks.概率神经网络的最大似然训练
IEEE Trans Neural Netw. 1994;5(5):764-83. doi: 10.1109/72.317728.
10
Approximate Bayes learning of stochastic differential equations.随机微分方程的近似贝叶斯学习。
Phys Rev E. 2018 Aug;98(2-1):022109. doi: 10.1103/PhysRevE.98.022109.

引用本文的文献

1
Immunoreactivity of intact virions of human immunodeficiency virus type 1 (HIV-1) reveals the existence of fewer HIV-1 immunotypes than genotypes.1型人类免疫缺陷病毒(HIV-1)完整病毒体的免疫反应性表明,HIV-1免疫型的数量少于基因型。
J Virol. 2000 Nov;74(22):10670-80. doi: 10.1128/jvi.74.22.10670-10680.2000.