• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

迈向将相关向量机扩展至大规模数据集

Towards expanding relevance vector machines to large scale datasets.

作者信息

Silva Catarina, Ribeiro Bernardete

机构信息

Departamento Eng. Informática, Universidade de Coimbra, Portugal.

出版信息

Int J Neural Syst. 2008 Feb;18(1):45-58. doi: 10.1142/S0129065708001361.

DOI:10.1142/S0129065708001361
PMID:18344222
Abstract

In this paper we develop and analyze methods for expanding automated learning of Relevance Vector Machines (RVM) to large scale text sets. RVM rely on Bayesian inference learning and while maintaining state-of-the-art performance, offer sparse and probabilistic solutions. However, efforts towards applying RVM to large scale sets have met with limited success in the past, due to computational constraints. We propose a diversified set of divide-and-conquer approaches where decomposition techniques promote the definition of smaller working sets that permit the use of all training examples. The rationale is that by exploring incremental, ensemble and boosting strategies, it is possible to improve classification performance, taking advantage of the large training set available. Results on Reuters-21578 and RCV1 are presented, showing performance gains and maintaining sparse solutions that can be deployed in distributed environments.

摘要

在本文中,我们开发并分析了将相关向量机(RVM)的自动学习扩展到大规模文本集的方法。RVM依赖于贝叶斯推理学习,在保持一流性能的同时,提供稀疏且概率性的解决方案。然而,由于计算限制,过去将RVM应用于大规模数据集的努力取得的成功有限。我们提出了一组多样化的分治方法,其中分解技术促进了较小工作集的定义,从而允许使用所有训练示例。其基本原理是,通过探索增量、集成和增强策略,利用可用的大型训练集,可以提高分类性能。文中给出了在路透社-21578和RCV1数据集上的结果,展示了性能提升以及可在分布式环境中部署的稀疏解决方案的保持情况。

相似文献

1
Towards expanding relevance vector machines to large scale datasets.迈向将相关向量机扩展至大规模数据集
Int J Neural Syst. 2008 Feb;18(1):45-58. doi: 10.1142/S0129065708001361.
2
Sparse Bayesian modeling with adaptive kernel learning.基于自适应核学习的稀疏贝叶斯建模
IEEE Trans Neural Netw. 2009 Jun;20(6):926-37. doi: 10.1109/TNN.2009.2014060. Epub 2009 May 5.
3
Probabilistic classification vector machines.概率分类向量机
IEEE Trans Neural Netw. 2009 Jun;20(6):901-14. doi: 10.1109/TNN.2009.2014161. Epub 2009 Apr 24.
4
Sparse Bayesian learning for efficient visual tracking.用于高效视觉跟踪的稀疏贝叶斯学习
IEEE Trans Pattern Anal Mach Intell. 2005 Aug;27(8):1292-304. doi: 10.1109/TPAMI.2005.167.
5
Bayesian multitask classification with Gaussian process priors.具有高斯过程先验的贝叶斯多任务分类
IEEE Trans Neural Netw. 2011 Dec;22(12):2011-21. doi: 10.1109/TNN.2011.2168568. Epub 2011 Oct 10.
6
A Bayesian approach to joint feature selection and classifier design.一种用于联合特征选择和分类器设计的贝叶斯方法。
IEEE Trans Pattern Anal Mach Intell. 2004 Sep;26(9):1105-11. doi: 10.1109/TPAMI.2004.55.
7
Relevance Vector Machines: Sparse Classification Methods for QSAR.相关向量机:定量构效关系的稀疏分类方法
J Chem Inf Model. 2015 Aug 24;55(8):1529-34. doi: 10.1021/acs.jcim.5b00261. Epub 2015 Jul 21.
8
The relevance sample-feature machine: a sparse Bayesian learning approach to joint feature-sample selection.关联样本特征机:一种联合特征样本选择的稀疏贝叶斯学习方法。
IEEE Trans Cybern. 2013 Dec;43(6):2241-54. doi: 10.1109/TCYB.2013.2260736.
9
Boosting naïve Bayesian learning on a large subset of MEDLINE.在MEDLINE的一个大型子集中增强朴素贝叶斯学习。
Proc AMIA Symp. 2000:918-22.
10
Multiclass relevance vector machines: sparsity and accuracy.多类相关向量机:稀疏性与准确性。
IEEE Trans Neural Netw. 2010 Oct;21(10):1588-98. doi: 10.1109/TNN.2010.2064787. Epub 2010 Aug 30.