• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

XAI 解密:可理解的 XAI 解释的需求。

Demystifying XAI: Requirements for Understandable XAI Explanations.

机构信息

Institute for Data Science, Cloud Computing, and IT Security, Furtwangen University, Furtwangen, Germany.

出版信息

Stud Health Technol Inform. 2024 Aug 22;316:565-569. doi: 10.3233/SHTI240477.

DOI:10.3233/SHTI240477
PMID:39176805
Abstract

This paper establishes requirements for assessing the usability of Explainable Artificial Intelligence (XAI) methods, focusing on non-AI experts like healthcare professionals. Through a synthesis of literature and empirical findings, it emphasizes achieving optimal cognitive load, task performance, and task time in XAI explanations. Key components include tailoring explanations to user expertise, integrating domain knowledge, and using non-propositional representations for comprehension. The paper highlights the critical role of relevance, accuracy, and truthfulness in fostering user trust. Practical guidelines are provided for designing transparent and user-friendly XAI explanations, especially in high-stakes contexts like healthcare. Overall, the paper's primary contribution lies in delineating clear requirements for effective XAI explanations, facilitating human-AI collaboration across diverse domains.

摘要

本文确立了评估可解释人工智能(XAI)方法可用性的要求,重点关注非人工智能专家,如医疗保健专业人员。通过文献综述和实证研究的综合分析,强调在 XAI 解释中实现最佳认知负荷、任务绩效和任务时间。关键组成部分包括根据用户专业知识定制解释、整合领域知识以及使用非命题表示法进行理解。本文强调了相关性、准确性和真实性在培养用户信任方面的关键作用。为设计透明和用户友好的 XAI 解释提供了实用指南,特别是在医疗保健等高风险环境中。总的来说,本文的主要贡献在于为有效的 XAI 解释划定了明确的要求,促进了跨不同领域的人机协作。

相似文献

1
Demystifying XAI: Requirements for Understandable XAI Explanations.XAI 解密:可理解的 XAI 解释的需求。
Stud Health Technol Inform. 2024 Aug 22;316:565-569. doi: 10.3233/SHTI240477.
2
Evaluating Explainable Artificial Intelligence (XAI) techniques in chest radiology imaging through a human-centered Lens.从以人为中心的角度评估胸部放射影像学中的可解释人工智能(XAI)技术。
PLoS One. 2024 Oct 9;19(10):e0308758. doi: 10.1371/journal.pone.0308758. eCollection 2024.
3
Towards Human-Centered Explainable AI: A Survey of User Studies for Model Explanations.迈向以人为本的可解释 AI:模型解释的用户研究综述。
IEEE Trans Pattern Anal Mach Intell. 2024 Apr;46(4):2104-2122. doi: 10.1109/TPAMI.2023.3331846. Epub 2024 Mar 6.
4
Dermatologist-like explainable AI enhances trust and confidence in diagnosing melanoma.皮肤科医生般的可解释人工智能增强了对黑色素瘤诊断的信任和信心。
Nat Commun. 2024 Jan 15;15(1):524. doi: 10.1038/s41467-023-43095-4.
5
Essential properties and explanation effectiveness of explainable artificial intelligence in healthcare: A systematic review.可解释人工智能在医疗保健中的基本属性和解释效果:一项系统综述。
Heliyon. 2023 May 8;9(5):e16110. doi: 10.1016/j.heliyon.2023.e16110. eCollection 2023 May.
6
Explainable AI in medical imaging: An overview for clinical practitioners - Beyond saliency-based XAI approaches.医学成像中的可解释人工智能:临床从业者概述——超越基于显著性的可解释人工智能方法
Eur J Radiol. 2023 May;162:110786. doi: 10.1016/j.ejrad.2023.110786. Epub 2023 Mar 20.
7
eXplainable Artificial Intelligence (XAI) for improving organisational regility.用于提高组织灵活性的可解释人工智能(XAI)。
PLoS One. 2024 Apr 24;19(4):e0301429. doi: 10.1371/journal.pone.0301429. eCollection 2024.
8
A review of evaluation approaches for explainable AI with applications in cardiology.用于可解释人工智能并应用于心脏病学的评估方法综述。
Artif Intell Rev. 2024;57(9):240. doi: 10.1007/s10462-024-10852-w. Epub 2024 Aug 9.
9
Solving the explainable AI conundrum by bridging clinicians' needs and developers' goals.通过弥合临床医生的需求与开发者的目标来解决可解释人工智能难题。
NPJ Digit Med. 2023 May 22;6(1):94. doi: 10.1038/s41746-023-00837-4.
10
Unveiling the black box: A systematic review of Explainable Artificial Intelligence in medical image analysis.揭开黑箱:医学图像分析中可解释人工智能的系统综述。
Comput Struct Biotechnol J. 2024 Aug 12;24:542-560. doi: 10.1016/j.csbj.2024.08.005. eCollection 2024 Dec.