• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

通过随机梯度下降加速序贯最小优化。

Accelerating Sequential Minimal Optimization via Stochastic Subgradient Descent.

出版信息

IEEE Trans Cybern. 2021 Apr;51(4):2215-2223. doi: 10.1109/TCYB.2019.2893289. Epub 2021 Mar 17.

DOI:10.1109/TCYB.2019.2893289
PMID:30736010
Abstract

Sequential minimal optimization (SMO) is one of the most popular methods for solving a variety of support vector machines (SVMs). The shrinking and caching techniques are commonly used to accelerate SMO. An interesting phenomenon of SMO is that most of the computational time is wasted on the first half of iterations for building a good solution closing to the optimal. However, as we all know, the stochastic subgradient descent (SSGD) method is extremely fast for building a good solution. In this paper, we propose a generalized framework of accelerating SMO through SSGD for a variety of SVMs of binary classification, regression, ordinal regression, and so on. We also provide a deep insight about why SSGD can accelerate SMO. Experimental results on a variety of datasets and learning applications confirm that our method can effectively speed up SMO.

摘要

序列最小优化 (SMO) 是解决各种支持向量机 (SVM) 的最流行方法之一。收缩和缓存技术通常用于加速 SMO。SMO 的一个有趣现象是,在构建接近最优的良好解决方案的迭代的前半部分中,大部分计算时间都被浪费了。然而,众所周知,随机梯度下降 (SSGD) 方法对于构建良好的解决方案非常快。在本文中,我们提出了一种通过 SSGD 为二进制分类、回归、有序回归等各种 SVM 加速 SMO 的广义框架。我们还深入探讨了 SSGD 为什么可以加速 SMO。在各种数据集和学习应用程序上的实验结果证实,我们的方法可以有效地加速 SMO。

相似文献

1
Accelerating Sequential Minimal Optimization via Stochastic Subgradient Descent.通过随机梯度下降加速序贯最小优化。
IEEE Trans Cybern. 2021 Apr;51(4):2215-2223. doi: 10.1109/TCYB.2019.2893289. Epub 2021 Mar 17.
2
Handling Imbalanced Classification Problems With Support Vector Machines via Evolutionary Bilevel Optimization.通过进化双层优化使用支持向量机处理不平衡分类问题。
IEEE Trans Cybern. 2023 Aug;53(8):4735-4747. doi: 10.1109/TCYB.2022.3163974. Epub 2023 Jul 18.
3
Rigorous proof of termination of SMO algorithm for support vector machines.支持向量机SMO算法终止性的严格证明。
IEEE Trans Neural Netw. 2005 May;16(3):774-6. doi: 10.1109/TNN.2005.844857.
4
An SMO algorithm for the potential support vector machine.一种用于潜在支持向量机的序列最小优化算法。
Neural Comput. 2008 Jan;20(1):271-87. doi: 10.1162/neco.2008.20.1.271.
5
SSGD: SPARSITY-PROMOTING STOCHASTIC GRADIENT DESCENT ALGORITHM FOR UNBIASED DNN PRUNING.SSGD:用于无偏深度神经网络剪枝的稀疏性促进随机梯度下降算法
Proc IEEE Int Conf Acoust Speech Signal Process. 2020 May;2020:5410-5414. doi: 10.1109/icassp40776.2020.9054436. Epub 2020 May 14.
6
Second-order SMO improves SVM online and active learning.二阶支持向量机优化器改进了支持向量机的在线学习和主动学习。
Neural Comput. 2008 Feb;20(2):374-82. doi: 10.1162/neco.2007.10-06-354.
7
Parallel sequential minimal optimization for the training of support vector machines.用于支持向量机训练的并行序列最小优化
IEEE Trans Neural Netw. 2006 Jul;17(4):1039-49. doi: 10.1109/TNN.2006.875989.
8
SMO-based pruning methods for sparse least squares support vector machines.基于SMO的稀疏最小二乘支持向量机剪枝方法。
IEEE Trans Neural Netw. 2005 Nov;16(6):1541-6. doi: 10.1109/TNN.2005.852239.
9
Global convergence of SMO algorithm for support vector regression.支持向量回归的SMO算法全局收敛性
IEEE Trans Neural Netw. 2008 Jun;19(6):971-82. doi: 10.1109/TNN.2007.915116.
10
A study on SMO-type decomposition methods for support vector machines.支持向量机的SMO型分解方法研究
IEEE Trans Neural Netw. 2006 Jul;17(4):893-908. doi: 10.1109/TNN.2006.875973.

引用本文的文献

1
[Formula: see text]-Improved nonparallel support vector machine.[公式:见正文]-改进的非平行支持向量机。
Sci Rep. 2022 Oct 25;12(1):17855. doi: 10.1038/s41598-022-22559-5.
2
Fault Prediction Based on Leakage Current in Contaminated Insulators Using Enhanced Time Series Forecasting Models.基于增强型时间序列预测模型的污染绝缘子泄漏电流故障预测。
Sensors (Basel). 2022 Aug 16;22(16):6121. doi: 10.3390/s22166121.