• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

关于以用户为中心的可解释 AI 在预测医院获得性菌血症中的实施和评估的展望。

A Vision on User-Centered Implementation and Evaluation of Explainable AI for Predicting Hospital-Onset Bacteremia.

机构信息

Big Data in Medicine, Department of Health Services Research, Carl von Ossietzky Universität Oldenburg, Oldenburg, Germany.

出版信息

Stud Health Technol Inform. 2024 Aug 22;316:766-770. doi: 10.3233/SHTI240525.

DOI:10.3233/SHTI240525
PMID:39176906
Abstract

In recent years, artificial intelligence (AI) has gained momentum in many fields of daily live. In healthcare, AI can be used for diagnosing or predicting illnesses. However, explainable AI (XAI) is needed to ensure that users understand how the algorithm arrives at a decision. In our research project, machine learning methods are used for individual risk prediction of hospital-onset bacteremia (HOB). This paper presents a vision on a step-wise process for implementation and evaluation of user-centered XAI for risk prediction of HOB. An initial requirement analysis revealed first insights on the users' needs of explainability to use and trust such risk prediction applications. The findings were then used to propose step-wise process towards a user-centered evaluation.

摘要

近年来,人工智能(AI)在日常生活的许多领域都得到了迅猛的发展。在医疗保健领域,人工智能可用于诊断或预测疾病。然而,需要可解释的人工智能(XAI)来确保用户理解算法是如何做出决策的。在我们的研究项目中,机器学习方法被用于个体医院获得性菌血症(HOB)的风险预测。本文提出了一个关于分步实施和评估以用户为中心的用于 HOB 风险预测的 XAI 的愿景。初步的需求分析揭示了用户对使用和信任此类风险预测应用程序的可解释性需求的初步见解。然后,利用这些发现提出了一个分步骤的过程,以实现以用户为中心的评估。

相似文献

1
A Vision on User-Centered Implementation and Evaluation of Explainable AI for Predicting Hospital-Onset Bacteremia.关于以用户为中心的可解释 AI 在预测医院获得性菌血症中的实施和评估的展望。
Stud Health Technol Inform. 2024 Aug 22;316:766-770. doi: 10.3233/SHTI240525.
2
Explainable AI for Bioinformatics: Methods, Tools and Applications.可解释人工智能在生物信息学中的应用:方法、工具与应用。
Brief Bioinform. 2023 Sep 20;24(5). doi: 10.1093/bib/bbad236.
3
Evaluating Explainable Artificial Intelligence (XAI) techniques in chest radiology imaging through a human-centered Lens.从以人为中心的角度评估胸部放射影像学中的可解释人工智能(XAI)技术。
PLoS One. 2024 Oct 9;19(10):e0308758. doi: 10.1371/journal.pone.0308758. eCollection 2024.
4
An Overview of Explainable AI Studies in the Prediction of Sepsis Onset and Sepsis Mortality.可解释人工智能在预测脓毒症发病和脓毒症死亡率方面的研究概述。
Stud Health Technol Inform. 2024 Aug 22;316:808-812. doi: 10.3233/SHTI240534.
5
A Survey on Medical Explainable AI (XAI): Recent Progress, Explainability Approach, Human Interaction and Scoring System.医学可解释人工智能(XAI)调查:最新进展、可解释性方法、人机交互和评分系统。
Sensors (Basel). 2022 Oct 21;22(20):8068. doi: 10.3390/s22208068.
6
Explainable artificial intelligence and machine learning: novel approaches to face infectious diseases challenges.可解释人工智能和机器学习:应对面部传染病挑战的新方法。
Ann Med. 2023;55(2):2286336. doi: 10.1080/07853890.2023.2286336. Epub 2023 Nov 27.
7
Explainability and Transparency of Classifiers for Air-Handling Unit Faults Using Explainable Artificial Intelligence (XAI).使用可解释人工智能(XAI)解释空气处理单元故障分类器的可解释性和透明度。
Sensors (Basel). 2022 Aug 23;22(17):6338. doi: 10.3390/s22176338.
8
Exploring Explainable AI Techniques for Text Classification in Healthcare: A Scoping Review.探索可解释人工智能技术在医疗保健领域文本分类中的应用:范围综述。
Stud Health Technol Inform. 2024 Aug 22;316:846-850. doi: 10.3233/SHTI240544.
9
Explainable AI Modeling in the Prediction of Cardiovascular Disease Risk.可解释人工智能模型在心血管疾病风险预测中的应用。
Stud Health Technol Inform. 2024 Aug 22;316:978-982. doi: 10.3233/SHTI240574.
10
Responsible AI for cardiovascular disease detection: Towards a privacy-preserving and interpretable model.心血管疾病检测的负责任 AI:迈向隐私保护和可解释的模型。
Comput Methods Programs Biomed. 2024 Sep;254:108289. doi: 10.1016/j.cmpb.2024.108289. Epub 2024 Jun 17.