• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于量子费希尔信息度量的量子机器学习模型泛化

Generalization of Quantum Machine Learning Models Using Quantum Fisher Information Metric.

作者信息

Haug Tobias, Kim M S

机构信息

Quantum Research Center, <a href="https://ror.org/001kv2y39">Technology Innovation Institute</a>, Abu Dhabi, United Arab Emirates.

Blackett Laboratory, <a href="https://ror.org/041kmwe10">Imperial College London</a>, London SW7 2AZ, United Kingdom.

出版信息

Phys Rev Lett. 2024 Aug 2;133(5):050603. doi: 10.1103/PhysRevLett.133.050603.

DOI:10.1103/PhysRevLett.133.050603
PMID:39159110
Abstract

Generalization is the ability of machine learning models to make accurate predictions on new data by learning from training data. However, understanding generalization of quantum machine learning models has been a major challenge. Here, we introduce the data quantum Fisher information metric (DQFIM). It describes the capacity of variational quantum algorithms depending on variational ansatz, training data, and their symmetries. We apply the DQFIM to quantify circuit parameters and training data needed to successfully train and generalize. Using the dynamical Lie algebra, we explain how to generalize using a low number of training states. Counterintuitively, breaking symmetries of the training data can help to improve generalization. Finally, we find that out-of-distribution generalization, where training and testing data are drawn from different data distributions, can be better than using the same distribution. Our work provides a useful framework to explore the power of quantum machine learning models.

摘要

泛化是机器学习模型通过从训练数据中学习对新数据做出准确预测的能力。然而,理解量子机器学习模型的泛化一直是一项重大挑战。在此,我们引入了数据量子费希尔信息度量(DQFIM)。它描述了取决于变分假设、训练数据及其对称性的变分量子算法的能力。我们应用DQFIM来量化成功训练和泛化所需的电路参数和训练数据。使用动态李代数,我们解释了如何使用少量训练态进行泛化。与直觉相反,打破训练数据的对称性有助于提高泛化能力。最后,我们发现,当训练数据和测试数据来自不同数据分布时的分布外泛化可能比使用相同分布更好。我们的工作提供了一个有用的框架来探索量子机器学习模型的能力。

相似文献

1
Generalization of Quantum Machine Learning Models Using Quantum Fisher Information Metric.基于量子费希尔信息度量的量子机器学习模型泛化
Phys Rev Lett. 2024 Aug 2;133(5):050603. doi: 10.1103/PhysRevLett.133.050603.
2
Generalization in quantum machine learning from few training data.基于少量训练数据的量子机器学习中的泛化
Nat Commun. 2022 Aug 22;13(1):4919. doi: 10.1038/s41467-022-32550-3.
3
Out-of-distribution generalization for learning quantum dynamics.学习量子动力学的分布外泛化。
Nat Commun. 2023 Jul 5;14(1):3751. doi: 10.1038/s41467-023-39381-w.
4
Understanding quantum machine learning also requires rethinking generalization.理解量子机器学习还需要重新思考泛化。
Nat Commun. 2024 Mar 13;15(1):2277. doi: 10.1038/s41467-024-45882-z.
5
Generalization Performance of Quantum Metric Learning Classifiers.量子度量学习分类器的泛化性能。
Biomolecules. 2022 Oct 27;12(11):1576. doi: 10.3390/biom12111576.
6
Predicting Brain Age and Gender from Brain Volume Data Using Variational Quantum Circuits.使用变分量子电路从脑容量数据预测脑年龄和性别。
Brain Sci. 2024 Apr 19;14(4):401. doi: 10.3390/brainsci14040401.
7
Variational algorithms for linear algebra.线性代数的变分算法。
Sci Bull (Beijing). 2021 Nov 15;66(21):2181-2188. doi: 10.1016/j.scib.2021.06.023. Epub 2021 Jun 26.
8
Ensemble machine learning model trained on a new synthesized dataset generalizes well for stress prediction using wearable devices.在新合成数据集上训练的集成机器学习模型,对于使用可穿戴设备进行压力预测具有良好的泛化能力。
J Biomed Inform. 2023 Dec;148:104556. doi: 10.1016/j.jbi.2023.104556. Epub 2023 Dec 2.
9
Lie Group Cohomology and (Multi)Symplectic Integrators: New Geometric Tools for Lie Group Machine Learning Based on Souriau Geometric Statistical Mechanics.李群上同调与(多)辛积分器:基于苏里奥几何统计力学的李群机器学习新几何工具。
Entropy (Basel). 2020 Apr 25;22(5):498. doi: 10.3390/e22050498.
10
Classical Surrogates for Quantum Learning Models.量子学习模型的经典替代方案。
Phys Rev Lett. 2023 Sep 8;131(10):100803. doi: 10.1103/PhysRevLett.131.100803.