• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

Artificial Intelligence Must Operate Ethically in Health Care and Not Be Prone to Racist or Sexist Biases.

作者信息

Webster Craig S, Jowsey Tanisha

机构信息

From the Department of Anaesthesiology, Faculty of Medical and Health Sciences, University of Auckland, Auckland, New Zealand.

Centre for Medical and Health Sciences Education, School of Medicine, University of Auckland, Auckland, New Zealand.

出版信息

Anesth Analg. 2025 May 1;140(5):1099-1104. doi: 10.1213/ANE.0000000000007140.

DOI:10.1213/ANE.0000000000007140
PMID:39808583
Abstract
摘要

相似文献

1
Artificial Intelligence Must Operate Ethically in Health Care and Not Be Prone to Racist or Sexist Biases.人工智能在医疗保健领域必须合乎道德地运行,且不应存在种族主义或性别歧视偏见。
Anesth Analg. 2025 May 1;140(5):1099-1104. doi: 10.1213/ANE.0000000000007140.
2
Not just in the past: Racist and sexist biases still permeate biology, anthropology, medicine, and education.不仅在过去:种族主义和性别歧视偏见如今仍然充斥于生物学、人类学、医学和教育领域。
Evol Anthropol. 2023 Apr;32(2):67-82. doi: 10.1002/evan.21978. Epub 2023 Apr 4.
3
AI image generators often give racist and sexist results: can they be fixed?人工智能图像生成器常常产生带有种族主义和性别歧视的结果:它们能被修复吗?
Nature. 2024 Mar;627(8005):722-725. doi: 10.1038/d41586-024-00674-9.
4
Obesity Pillars Roundtable: Body mass index and body composition in Black and Female individuals. Race-relevant or racist? Sex-relevant or sexist?肥胖问题圆桌会议:黑人和女性的体重指数与身体成分。与种族相关还是种族主义?与性别相关还是性别歧视?
Obes Pillars. 2022 Nov 18;4:100044. doi: 10.1016/j.obpill.2022.100044. eCollection 2022 Dec.
5
AI can be sexist and racist - it's time to make it fair.人工智能可能存在性别歧视和种族歧视——是时候让它变得公平了。
Nature. 2018 Jul;559(7714):324-326. doi: 10.1038/d41586-018-05707-8.
6
Equal accuracy for Andrew and Abubakar-detecting and mitigating bias in name-ethnicity classification algorithms.安德鲁和阿布巴卡尔的准确率相同——检测和减轻姓名-种族分类算法中的偏差。
AI Soc. 2023 Feb 9:1-25. doi: 10.1007/s00146-022-01619-4.
7
Exploring verbal and physical workplace violence in a large, urban emergency department.探讨大型城市急诊部门的言语和身体工作场所暴力。
Am J Emerg Med. 2023 May;67:1-4. doi: 10.1016/j.ajem.2023.01.036. Epub 2023 Jan 27.
8
The metabolic syndrome: racist, sexist, or both?
Gend Med. 2008 Dec;5(4):372-3. doi: 10.1016/j.genm.2008.11.004.
9
Call for algorithmic fairness to mitigate amplification of racial biases in artificial intelligence models used in orthodontics and craniofacial health.呼吁算法公平性以减轻在口腔正畸学和颅面健康中使用的人工智能模型中种族偏见的放大。
Orthod Craniofac Res. 2023 Dec;26 Suppl 1:124-130. doi: 10.1111/ocr.12721. Epub 2023 Oct 17.
10
When sexism is not a problem: The role of perceived intelligence in willingness to interact with someone who is sexist.当性别歧视不是问题时:感知到的智力在与性别歧视者互动意愿中的作用。
J Soc Psychol. 2021 May 4;161(3):287-303. doi: 10.1080/00224545.2020.1819187. Epub 2020 Sep 22.

引用本文的文献

1
Comparison of artificial intelligence chatbots in delivering quality anaesthesia information for patients undergoing laparoscopic hernioplasty.人工智能聊天机器人在为接受腹腔镜疝修补术的患者提供高质量麻醉信息方面的比较。
Br J Anaesth. 2025 Apr;134(4):1261-1263. doi: 10.1016/j.bja.2025.01.004. Epub 2025 Jan 31.