• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

用于自适应主成分分析加速收敛的算法。

Algorithms for accelerated convergence of adaptive PCA.

作者信息

Chatterjee C, Kang Z, Roychowdhury V P

机构信息

BAE Systems Inc., San Diego, CA 92127, USA.

出版信息

IEEE Trans Neural Netw. 2000;11(2):338-55. doi: 10.1109/72.839005.

DOI:10.1109/72.839005
PMID:18249765
Abstract

We derive and discuss new adaptive algorithms for principal component analysis (PCA) that are shown to converge faster than the traditional PCA algorithms due to Oja, Sanger, and Xu. It is well known that traditional PCA algorithms that are derived by using gradient descent on an objective function are slow to converge. Furthermore, the convergence of these algorithms depends on appropriate choices of the gain sequences. Since online applications demand faster convergence and an automatic selection of gains, we present new adaptive algorithms to solve these problems. We first present an unconstrained objective function, which can be minimized to obtain the principal components. We derive adaptive algorithms from this objective function by using: 1) gradient descent; 2) steepest descent; 3) conjugate direction; and 4) Newton-Raphson methods. Although gradient descent produces Xu's LMSER algorithm, the steepest descent, conjugate direction, and Newton-Raphson methods produce new adaptive algorithms for PCA. We also provide a discussion on the landscape of the objective function, and present a global convergence proof of the adaptive gradient descent PCA algorithm using stochastic approximation theory. Extensive experiments with stationary and nonstationary multidimensional Gaussian sequences show faster convergence of the new algorithms over the traditional gradient descent methods.We also compare the steepest descent adaptive algorithm with state-of-the-art methods on stationary and nonstationary sequences.

摘要

我们推导并讨论了用于主成分分析(PCA)的新自适应算法,结果表明这些算法比由奥亚、桑格和徐提出的传统PCA算法收敛速度更快。众所周知,通过对目标函数使用梯度下降法推导出来的传统PCA算法收敛速度较慢。此外,这些算法的收敛取决于增益序列的恰当选择。由于在线应用需要更快的收敛速度以及增益的自动选择,我们提出了新的自适应算法来解决这些问题。我们首先给出一个无约束目标函数,通过对其进行最小化可得到主成分。我们通过以下方法从这个目标函数推导出自适应算法:1)梯度下降法;2)最速下降法;3)共轭方向法;4)牛顿 - 拉夫森方法。虽然梯度下降法产生了徐的LMSER算法,但最速下降法、共轭方向法和牛顿 - 拉夫森方法产生了用于PCA的新自适应算法。我们还对目标函数的情况进行了讨论,并使用随机逼近理论给出了自适应梯度下降PCA算法的全局收敛证明。对平稳和非平稳多维高斯序列进行的大量实验表明,新算法比传统梯度下降方法收敛速度更快。我们还在平稳和非平稳序列上,将最速下降自适应算法与现有最先进方法进行了比较。

相似文献

1
Algorithms for accelerated convergence of adaptive PCA.用于自适应主成分分析加速收敛的算法。
IEEE Trans Neural Netw. 2000;11(2):338-55. doi: 10.1109/72.839005.
2
A conjugate gradient algorithm for large-scale unconstrained optimization problems and nonlinear equations.一种用于大规模无约束优化问题和非线性方程的共轭梯度算法。
J Inequal Appl. 2018;2018(1):113. doi: 10.1186/s13660-018-1703-1. Epub 2018 May 11.
3
Statistical efficiency of adaptive algorithms.自适应算法的统计效率。
Neural Netw. 2003 Jun-Jul;16(5-6):735-44. doi: 10.1016/S0893-6080(03)00126-6.
4
On relative convergence properties of principal component analysis algorithms.
IEEE Trans Neural Netw. 1998;9(2):319-29. doi: 10.1109/72.661126.
5
Performance surfaces of a single-layer perceptron.单层感知器的性能曲面。
IEEE Trans Neural Netw. 1990;1(3):268-74. doi: 10.1109/72.80252.
6
Information geometric algorithm for estimating switching probabilities in space-varying HMM.用于估计时变 HMM 中切换概率的信息几何算法。
IEEE Trans Image Process. 2014 Dec;23(12):5263-73. doi: 10.1109/TIP.2014.2363614.
7
Two New PRP Conjugate Gradient Algorithms for Minimization Optimization Models.两种用于最小化优化模型的新型PRP共轭梯度算法。
PLoS One. 2015 Oct 26;10(10):e0140071. doi: 10.1371/journal.pone.0140071. eCollection 2015.
8
Improving the convergence of iterative filtered backprojection algorithms.提高迭代滤波反投影算法的收敛性。
Med Phys. 1994 Aug;21(8):1283-6. doi: 10.1118/1.597210.
9
Fast Automatic Step Size Estimation for Gradient Descent Optimization of Image Registration.用于图像配准梯度下降优化的快速自动步长估计
IEEE Trans Med Imaging. 2016 Feb;35(2):391-403. doi: 10.1109/TMI.2015.2476354. Epub 2015 Sep 3.
10
Parallelizable Bayesian tomography algorithms with rapid, guaranteed convergence.具有快速、保证收敛性的可并行贝叶斯断层扫描算法。
IEEE Trans Image Process. 2000;9(10):1745-59. doi: 10.1109/83.869186.