Suppr超能文献

使用带有知识蒸馏的预训练语言模型自动分配放射学检查方案

Automatic Assignment of Radiology Examination Protocols Using Pre-trained Language Models with Knowledge Distillation.

作者信息

Lau Wilson, Aaltonen Laura, Gunn Martin, Yetisgen Meliha

机构信息

Department of Biomedical and Health Informatics.

Department of Radiology.

出版信息

AMIA Annu Symp Proc. 2022 Feb 21;2021:668-676. eCollection 2021.

Abstract

Selecting radiology examination protocol is a repetitive, and time-consuming process. In this paper, we present a deep learning approach to automatically assign protocols to computed tomography examinations, by pre-training a domain-specific BERT model (BERT). To handle the high data imbalance across exam protocols, we used a knowledge distillation approach that up-sampled the minority classes through data augmentation. We compared classification performance of the described approach with n-gram models using Support Vector Machine (SVM), Gradient Boosting Machine (GBM), and Random Forest (RF) classifiers, as well as the BERT model. SVM, GBM and RF achieved macro-averaged F1 scores of 0.45, 0.45, and 0.6 while BERT and BERT achieved 0.61 and 0.63. Knowledge distillation boosted performance on the minority classes and achieved an F1 score of 0.66.

摘要

选择放射学检查方案是一个重复且耗时的过程。在本文中,我们提出了一种深度学习方法,通过预训练特定领域的BERT模型(BERT)来自动为计算机断层扫描检查分配方案。为了处理不同检查方案之间的数据高度不平衡问题,我们使用了一种知识蒸馏方法,通过数据增强对少数类别进行上采样。我们将所描述方法的分类性能与使用支持向量机(SVM)、梯度提升机(GBM)和随机森林(RF)分类器的n-gram模型以及BERT模型进行了比较。SVM、GBM和RF的宏平均F1分数分别为0.45、0.45和0.6,而BERT和BERT分别为0.61和0.63。知识蒸馏提高了少数类别的性能,F1分数达到了0.66。

相似文献

本文引用的文献

9
Radiology Workflow Disruptors: A Detailed Analysis.放射学工作流程干扰因素:详细分析
J Am Coll Radiol. 2016 Oct;13(10):1210-1214. doi: 10.1016/j.jacr.2016.04.009. Epub 2016 Jun 14.

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验