• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

结合直流算法(DCAs)和分解技术用于非半正定核的训练。

Combining DC algorithms (DCAs) and decomposition techniques for the training of nonpositive-semidefinite kernels.

作者信息

Akoa François Bertrand

机构信息

Planning Department, AES Sonel, Douala, Littoral 4077, Cameroon.

出版信息

IEEE Trans Neural Netw. 2008 Nov;19(11):1854-72. doi: 10.1109/TNN.2008.2003299.

DOI:10.1109/TNN.2008.2003299
PMID:18990641
Abstract

Today, decomposition methods are one of the most popular methods for training support vector machines (SVMs). With the use of kernels that do not satisfy Mercer's condition, new techniques must be designed to handle nonpositive-semidefinite kernels resulting to this choice. In this work we incorporate difference of convex (DC functions) optimization techniques into decomposition methods to tackle this difficulty. The new approach needs no problem modification and we show that the only use of a truncated DC algorithms (DCAs) in the decomposition scheme produces a sufficient decrease of the objective function at each iteration. Thanks to this property, an asymptotic convergence proof of the new algorithm is produced without any blockwise convexity assumption on the objective function. We also investigate a working set selection rule using second-order information for sequential minimal optimization (SMO)-type decomposition in the spirit of DC optimization. Numerical results show the robustness and the efficiency of the new methods compared with state-of-the-art software.

摘要

如今,分解方法是训练支持向量机(SVM)最流行的方法之一。由于使用了不满足 Mercer 条件的核函数,必须设计新的技术来处理由此产生的非半正定核。在这项工作中,我们将凸函数差(DC 函数)优化技术纳入分解方法来解决这一难题。新方法无需对问题进行修改,并且我们证明在分解方案中仅使用截断 DC 算法(DCA)就能在每次迭代时使目标函数充分下降。得益于这一特性,在不对目标函数做任何逐块凸性假设的情况下,给出了新算法的渐近收敛证明。我们还本着 DC 优化的精神,研究了一种在顺序最小优化(SMO)型分解中使用二阶信息的工作集选择规则。数值结果表明,与现有软件相比,新方法具有鲁棒性和高效性。

相似文献

1
Combining DC algorithms (DCAs) and decomposition techniques for the training of nonpositive-semidefinite kernels.结合直流算法(DCAs)和分解技术用于非半正定核的训练。
IEEE Trans Neural Netw. 2008 Nov;19(11):1854-72. doi: 10.1109/TNN.2008.2003299.
2
Rigorous proof of termination of SMO algorithm for support vector machines.支持向量机SMO算法终止性的严格证明。
IEEE Trans Neural Netw. 2005 May;16(3):774-6. doi: 10.1109/TNN.2005.844857.
3
A convergent hybrid decomposition algorithm model for SVM training.一种用于支持向量机训练的收敛混合分解算法模型。
IEEE Trans Neural Netw. 2009 Jun;20(6):1055-60. doi: 10.1109/TNN.2009.2020908. Epub 2009 May 8.
4
Single directional SMO algorithm for least squares support vector machines.单向 SMO 算法用于最小二乘支持向量机。
Comput Intell Neurosci. 2013;2013:968438. doi: 10.1155/2013/968438. Epub 2013 Feb 18.
5
Global convergence of SMO algorithm for support vector regression.支持向量回归的SMO算法全局收敛性
IEEE Trans Neural Netw. 2008 Jun;19(6):971-82. doi: 10.1109/TNN.2007.915116.
6
Training hard-margin support vector machines using greedy stagewise algorithm.使用贪婪逐阶段算法训练硬间隔支持向量机。
IEEE Trans Neural Netw. 2008 Aug;19(8):1446-55. doi: 10.1109/TNN.2008.2000576.
7
Working set selection using functional gain for LS-SVM.
IEEE Trans Neural Netw. 2007 Sep;18(5):1541-4. doi: 10.1109/tnn.2007.899715.
8
Global convergence of decomposition learning methods for support vector machines.支持向量机分解学习方法的全局收敛性
IEEE Trans Neural Netw. 2006 Nov;17(6):1362-9. doi: 10.1109/TNN.2006.880584.
9
SMO-based pruning methods for sparse least squares support vector machines.基于SMO的稀疏最小二乘支持向量机剪枝方法。
IEEE Trans Neural Netw. 2005 Nov;16(6):1541-6. doi: 10.1109/TNN.2005.852239.
10
Pruning support vector machines without altering performances.在不改变性能的情况下修剪支持向量机。
IEEE Trans Neural Netw. 2008 Oct;19(10):1792-803. doi: 10.1109/TNN.2008.2002696.