• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于 Richardson-Lucy 模型的部分可解释图像去卷积框架。

Partially interpretable image deconvolution framework based on the Richardson-Lucy model.

出版信息

Opt Lett. 2023 Feb 15;48(4):940-943. doi: 10.1364/OL.478885.

DOI:10.1364/OL.478885
PMID:36790980
Abstract

Fluorescence microscopy typically suffers from aberration induced by system and sample, which could be circumvented by image deconvolution. We proposed a novel, to the best of our knowledge, Richardson-Lucy (RL) model-driven deconvolution framework to improve reconstruction performance and speed. Two kinds of neural networks within this framework were devised, which are partially interpretable compared with previous deep learning methods. We first introduce RL into deep feature space, which has superior generalizability to the convolutional neural networks (CNN). We further accelerate it with an unmatched backprojector, providing a five times faster reconstruction speed than classic RL. Our deconvolution approaches outperform both CNN and traditional methods regarding image quality for blurred images caused by out-of-focus or imaging system aberration.

摘要

荧光显微镜通常会受到系统和样本引起的像差的影响,可以通过图像反卷积来避免。我们提出了一种新颖的、据我们所知的 Richardson-Lucy (RL) 模型驱动的反卷积框架,以提高重建性能和速度。该框架内设计了两种神经网络,与以前的深度学习方法相比,它们具有部分可解释性。我们首先将 RL 引入到深度特征空间中,与卷积神经网络 (CNN) 相比,它具有更好的泛化能力。我们进一步使用无与伦比的反向投影器来加速它,比经典 RL 快五倍的重建速度。我们的反卷积方法在对离焦或成像系统像差引起的模糊图像的图像质量方面优于 CNN 和传统方法。

相似文献

1
Partially interpretable image deconvolution framework based on the Richardson-Lucy model.基于 Richardson-Lucy 模型的部分可解释图像去卷积框架。
Opt Lett. 2023 Feb 15;48(4):940-943. doi: 10.1364/OL.478885.
2
Richardson-Lucy deconvolution as a general tool for combining images with complementary strengths.Richardson-Lucy 去卷积作为一种将具有互补优势的图像组合在一起的通用工具。
Chemphyschem. 2014 Mar 17;15(4):794-800. doi: 10.1002/cphc.201300831. Epub 2014 Jan 16.
3
High-fidelity deconvolution for acoustic-resolution photoacoustic microscopy enabled by convolutional neural networks.基于卷积神经网络的用于声学分辨率光声显微镜的高保真去卷积
Photoacoustics. 2022 Apr 26;26:100360. doi: 10.1016/j.pacs.2022.100360. eCollection 2022 Jun.
4
Incorporating the image formation process into deep learning improves network performance.将图像形成过程纳入深度学习可以提高网络性能。
Nat Methods. 2022 Nov;19(11):1427-1437. doi: 10.1038/s41592-022-01652-7. Epub 2022 Oct 31.
5
Quantitative PET image reconstruction employing nested expectation-maximization deconvolution for motion compensation.采用嵌套期望最大化反卷积进行运动补偿的定量 PET 图像重建。
Comput Med Imaging Graph. 2017 Sep;60:11-21. doi: 10.1016/j.compmedimag.2016.11.006. Epub 2016 Nov 16.
6
RedLionfish - fast Richardson-Lucy Deconvolution package for efficient point spread function suppression in volumetric data.RedLionfish——用于在体数据中高效抑制点扩散函数的快速理查森-露西反卷积软件包。
Wellcome Open Res. 2024 Jun 3;9:296. doi: 10.12688/wellcomeopenres.21505.1. eCollection 2024.
7
A novel partial volume effects correction technique integrating deconvolution associated with denoising within an iterative PET image reconstruction.一种新颖的部分容积效应校正技术,该技术在迭代PET图像重建过程中集成了与去噪相关的反卷积。
Med Phys. 2015 Feb;42(2):804-19. doi: 10.1118/1.4905162.
8
Rapid image deconvolution and multiview fusion for optical microscopy.快速光学显微镜图像反卷积和多视角融合。
Nat Biotechnol. 2020 Nov;38(11):1337-1346. doi: 10.1038/s41587-020-0560-x. Epub 2020 Jun 29.
9
Richardson-Lucy algorithm with total variation regularization for 3D confocal microscope deconvolution.用于三维共聚焦显微镜去卷积的带总变分正则化的理查森- Lucy 算法
Microsc Res Tech. 2006 Apr;69(4):260-6. doi: 10.1002/jemt.20294.
10
Correction of refractive index mismatch-induced aberrations under radially polarized illumination by deep learning.通过深度学习校正径向偏振照明下折射率失配引起的像差。
Opt Express. 2020 Aug 31;28(18):26028-26040. doi: 10.1364/OE.402109.