• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

使用去噪密度估计器学习生成模型。

Learning Generative Models Using Denoising Density Estimators.

作者信息

Bigdeli Siavash A, Lin Geng, Dunbar L Andrea, Portenier Tiziano, Zwicker Matthias

出版信息

IEEE Trans Neural Netw Learn Syst. 2024 Dec;35(12):17730-17741. doi: 10.1109/TNNLS.2023.3308191. Epub 2024 Dec 2.

DOI:10.1109/TNNLS.2023.3308191
PMID:37672376
Abstract

Learning probabilistic models that can estimate the density of a given set of samples, and generate samples from that density, is one of the fundamental challenges in unsupervised machine learning. We introduce a new generative model based on denoising density estimators (DDEs), which are scalar functions parametrized by neural networks, that are efficiently trained to represent kernel density estimators of the data. Leveraging DDEs, our main contribution is a novel technique to obtain generative models by minimizing the Kullback-Leibler (KL)-divergence directly. We prove that our algorithm for obtaining generative models is guaranteed to converge consistently to the correct solution. Our approach does not require specific network architecture as in normalizing flows (NFs), nor use ordinary differential equation (ODE) solvers as in continuous NFs. Experimental results demonstrate substantial improvement in density estimation and competitive performance in generative model training.

摘要

学习能够估计给定样本集密度并从该密度生成样本的概率模型,是无监督机器学习中的基本挑战之一。我们引入了一种基于去噪密度估计器(DDE)的新生成模型,DDE是由神经网络参数化的标量函数,经过有效训练以表示数据的核密度估计器。利用DDE,我们的主要贡献是一种通过直接最小化库尔贝克-莱布勒(KL)散度来获得生成模型的新技术。我们证明,我们用于获得生成模型的算法保证能一致收敛到正确解。我们的方法既不像归一化流(NF)那样需要特定的网络架构,也不像连续NF那样使用常微分方程(ODE)求解器。实验结果表明,在密度估计方面有显著改进,在生成模型训练方面具有有竞争力的性能。

相似文献

1
Learning Generative Models Using Denoising Density Estimators.使用去噪密度估计器学习生成模型。
IEEE Trans Neural Netw Learn Syst. 2024 Dec;35(12):17730-17741. doi: 10.1109/TNNLS.2023.3308191. Epub 2024 Dec 2.
2
Bias Reduction and Metric Learning for Nearest-Neighbor Estimation of Kullback-Leibler Divergence.用于Kullback-Leibler散度最近邻估计的偏差减少与度量学习
Neural Comput. 2018 Jul;30(7):1930-1960. doi: 10.1162/neco_a_01092. Epub 2018 Jun 14.
3
An unsupervised two-step training framework for low-dose computed tomography denoising.一种用于低剂量计算机断层扫描去噪的无监督两步训练框架。
Med Phys. 2024 Feb;51(2):1127-1144. doi: 10.1002/mp.16628. Epub 2023 Jul 14.
4
Density estimation using deep generative neural networks.使用深度生成神经网络进行密度估计。
Proc Natl Acad Sci U S A. 2021 Apr 13;118(15). doi: 10.1073/pnas.2101344118.
5
F-Divergences and Cost Function Locality in Generative Modelling with Quantum Circuits.量子电路生成建模中的F散度与代价函数局部性
Entropy (Basel). 2021 Sep 30;23(10):1281. doi: 10.3390/e23101281.
6
Generative Quantum Machine Learning via Denoising Diffusion Probabilistic Models.通过去噪扩散概率模型实现生成式量子机器学习
Phys Rev Lett. 2024 Mar 8;132(10):100602. doi: 10.1103/PhysRevLett.132.100602.
7
Diffusion probabilistic priors for zero-shot low-dose CT image denoising.用于零样本低剂量CT图像去噪的扩散概率先验
Med Phys. 2025 Jan;52(1):329-345. doi: 10.1002/mp.17431. Epub 2024 Oct 16.
8
Renormalization group flow, optimal transport, and diffusion-based generative model.重整化群流、最优传输和基于扩散的生成模型。
Phys Rev E. 2025 Jan;111(1-2):015304. doi: 10.1103/PhysRevE.111.015304.
9
Novel deep generative simultaneous recurrent model for efficient representation learning.新型深度生成式同时递归模型,用于高效的表示学习。
Neural Netw. 2018 Nov;107:12-22. doi: 10.1016/j.neunet.2018.04.020. Epub 2018 Aug 9.
10
Performance of a deep learning-based CT image denoising method: Generalizability over dose, reconstruction kernel, and slice thickness.基于深度学习的 CT 图像去噪方法的性能:在剂量、重建核和层厚方面的泛化能力。
Med Phys. 2022 Feb;49(2):836-853. doi: 10.1002/mp.15430. Epub 2022 Jan 19.