• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

APRNet:一种具有多模态跨维度注意力的 3D 各向异性金字塔可逆网络,用于磁共振图像中的脑组织分割。

APRNet: A 3D Anisotropic Pyramidal Reversible Network With Multi-Modal Cross-Dimension Attention for Brain Tissue Segmentation in MR Images.

出版信息

IEEE J Biomed Health Inform. 2022 Feb;26(2):749-761. doi: 10.1109/JBHI.2021.3093932. Epub 2022 Feb 4.

DOI:10.1109/JBHI.2021.3093932
PMID:34197331
Abstract

Brain tissue segmentation in multi-modal magnetic resonance (MR) images is significant for the clinical diagnosis of brain diseases. Due to blurred boundaries, low contrast, and intricate anatomical relationships between brain tissue regions, automatic brain tissue segmentation without prior knowledge is still challenging. This paper presents a novel 3D fully convolutional network (FCN) for brain tissue segmentation, called APRNet. In this network, we first propose a 3D anisotropic pyramidal convolutional reversible residual sequence (3DAPC-RRS) module to integrate the intra-slice information with the inter-slice information without significant memory consumption; secondly, we design a multi-modal cross-dimension attention (MCDA) module to automatically capture the effective information in each dimension of multi-modal images; then, we apply 3DAPC-RRS modules and MCDA modules to a 3D FCN with multiple encoded streams and one decoded stream for constituting the overall architecture of APRNet. We evaluated APRNet on two benchmark challenges, namely MRBrainS13 and iSeg-2017. The experimental results show that APRNet yields state-of-the-art segmentation results on both benchmark challenge datasets and achieves the best segmentation performance on the cerebrospinal fluid region. Compared with other methods, our proposed approach exploits the complementary information of different modalities to segment brain tissue regions in both adult and infant MR images, and it achieves the average Dice coefficient of 87.22% and 93.03% on the MRBrainS13 and iSeg-2017 testing data, respectively. The proposed method is beneficial for quantitative brain analysis in the clinical study, and our code is made publicly available.

摘要

多模态磁共振(MR)图像中的脑组织分割对于脑疾病的临床诊断具有重要意义。由于边界模糊、对比度低以及脑组织区域之间的复杂解剖关系,在没有先验知识的情况下进行自动脑组织分割仍然具有挑战性。本文提出了一种新的用于脑组织分割的三维全卷积网络(FCN),称为 APRNet。在该网络中,我们首先提出了一种三维各向异性金字塔卷积可逆残差序列(3DAPC-RRS)模块,以在不显著增加内存消耗的情况下整合切片内信息和切片间信息;其次,我们设计了一种多模态跨维度注意力(MCDA)模块,以自动捕获多模态图像各维度的有效信息;然后,我们将 3DAPC-RRS 模块和 MCDA 模块应用于具有多个编码流和一个解码流的三维 FCN,以构成 APRNet 的整体架构。我们在两个基准挑战,即 MRBrainS13 和 iSeg-2017 上评估了 APRNet。实验结果表明,APRNet 在两个基准挑战数据集上均取得了最先进的分割结果,并在脑脊液区域实现了最佳分割性能。与其他方法相比,我们提出的方法利用了不同模态的互补信息来分割成人和婴儿 MR 图像中的脑组织区域,在 MRBrainS13 和 iSeg-2017 测试数据上分别获得了 87.22%和 93.03%的平均 Dice 系数。该方法有利于临床研究中的定量脑分析,我们的代码已公开。

相似文献

1
APRNet: A 3D Anisotropic Pyramidal Reversible Network With Multi-Modal Cross-Dimension Attention for Brain Tissue Segmentation in MR Images.APRNet:一种具有多模态跨维度注意力的 3D 各向异性金字塔可逆网络,用于磁共振图像中的脑组织分割。
IEEE J Biomed Health Inform. 2022 Feb;26(2):749-761. doi: 10.1109/JBHI.2021.3093932. Epub 2022 Feb 4.
2
A 3D hierarchical cross-modality interaction network using transformers and convolutions for brain glioma segmentation in MR images.一种使用变换和卷积的 3D 层次跨模态交互网络,用于磁共振图像中的脑胶质瘤分割。
Med Phys. 2024 Nov;51(11):8371-8389. doi: 10.1002/mp.17354. Epub 2024 Aug 13.
3
A 3D Cross-Modality Feature Interaction Network With Volumetric Feature Alignment for Brain Tumor and Tissue Segmentation.一种用于脑肿瘤和组织分割的具有体积特征对齐的3D跨模态特征交互网络。
IEEE J Biomed Health Inform. 2023 Jan;27(1):75-86. doi: 10.1109/JBHI.2022.3214999. Epub 2023 Jan 4.
4
3D-MASNet: 3D mixed-scale asymmetric convolutional segmentation network for 6-month-old infant brain MR images.3D-MASNet:用于 6 个月大婴儿脑磁共振图像的 3D 混合尺度不对称卷积分割网络。
Hum Brain Mapp. 2023 Mar;44(4):1779-1792. doi: 10.1002/hbm.26174. Epub 2022 Dec 14.
5
Automated multi-modal Transformer network (AMTNet) for 3D medical images segmentation.用于3D医学图像分割的自动多模态Transformer网络(AMTNet)。
Phys Med Biol. 2023 Jan 9;68(2). doi: 10.1088/1361-6560/aca74c.
6
Anatomical Attention Guided Deep Networks for ROI Segmentation of Brain MR Images.基于解剖注意力引导的深度网络的脑 MRI 图像 ROI 分割。
IEEE Trans Med Imaging. 2020 Jun;39(6):2000-2012. doi: 10.1109/TMI.2019.2962792. Epub 2019 Dec 30.
7
Multi-modality self-attention aware deep network for 3D biomedical segmentation.多模态自注意力感知深度网络用于 3D 生物医学分割。
BMC Med Inform Decis Mak. 2020 Jul 9;20(Suppl 3):119. doi: 10.1186/s12911-020-1109-0.
8
VoxResNet: Deep voxelwise residual networks for brain segmentation from 3D MR images.VoxResNet:基于 3D MR 图像的脑分割深度体素残差网络。
Neuroimage. 2018 Apr 15;170:446-455. doi: 10.1016/j.neuroimage.2017.04.041. Epub 2017 Apr 23.
9
CMAF-Net: a cross-modal attention fusion-based deep neural network for incomplete multi-modal brain tumor segmentation.CMAF-Net:一种基于跨模态注意力融合的深度神经网络,用于不完全多模态脑肿瘤分割。
Quant Imaging Med Surg. 2024 Jul 1;14(7):4579-4604. doi: 10.21037/qims-24-9. Epub 2024 Jun 27.
10
PA-ResSeg: A phase attention residual network for liver tumor segmentation from multiphase CT images.PA-ResSeg:一种用于多期 CT 图像中肝脏肿瘤分割的相位注意残差网络。
Med Phys. 2021 Jul;48(7):3752-3766. doi: 10.1002/mp.14922. Epub 2021 May 30.

引用本文的文献

1
Lightweight Brain Tumor Segmentation Through Wavelet-Guided Iterative Axial Factorization Attention.基于小波引导的迭代轴向因子分解注意力的轻量级脑肿瘤分割
Brain Sci. 2025 Jun 6;15(6):613. doi: 10.3390/brainsci15060613.
2
Convolutional neural network (CNN) configuration using a learning automaton model for neonatal brain image segmentation.使用学习自动机模型进行新生儿脑图像分割的卷积神经网络(CNN)配置。
PLoS One. 2025 Jan 17;20(1):e0315538. doi: 10.1371/journal.pone.0315538. eCollection 2025.
3
Deep learning techniques for isointense infant brain tissue segmentation: a systematic literature review.
用于等强度婴儿脑组织分割的深度学习技术:一项系统的文献综述。
Front Med (Lausanne). 2023 Dec 18;10:1240360. doi: 10.3389/fmed.2023.1240360. eCollection 2023.