• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

人工智能中道德认知评估的难题。

The Puzzle of Evaluating Moral Cognition in Artificial Agents.

机构信息

Google DeepMind.

Department of Psychology, Yale University.

出版信息

Cogn Sci. 2023 Aug;47(8):e13315. doi: 10.1111/cogs.13315.

DOI:10.1111/cogs.13315
PMID:37555649
Abstract

In developing artificial intelligence (AI), researchers often benchmark against human performance as a measure of progress. Is this kind of comparison possible for moral cognition? Given that human moral judgment often hinges on intangible properties like "intention" which may have no natural analog in artificial agents, it may prove difficult to design a "like-for-like" comparison between the moral behavior of artificial and human agents. What would a measure of moral behavior for both humans and AI look like? We unravel the complexity of this question by discussing examples within reinforcement learning and generative AI, and we examine how the puzzle of evaluating artificial agents' moral cognition remains open for further investigation within cognitive science.

摘要

在开发人工智能 (AI) 时,研究人员通常将其与人类表现进行基准测试,作为衡量进展的一种手段。这种比较在道德认知方面是否可行?鉴于人类的道德判断往往取决于无形的属性,如“意图”,而这些属性在人工智能代理中可能没有自然的对应物,因此可能很难在人工智能代理和人类代理的道德行为之间设计出“一对一”的比较。人类和人工智能的道德行为衡量标准会是什么样的?我们通过讨论强化学习和生成人工智能中的例子来解开这个问题的复杂性,我们还研究了如何在认知科学中进一步研究评估人工智能代理的道德认知的难题。

相似文献

1
The Puzzle of Evaluating Moral Cognition in Artificial Agents.人工智能中道德认知评估的难题。
Cogn Sci. 2023 Aug;47(8):e13315. doi: 10.1111/cogs.13315.
2
Artificial Moral Agents: A Survey of the Current Status.人工道德代理:现状调查。
Sci Eng Ethics. 2020 Apr;26(2):501-532. doi: 10.1007/s11948-019-00151-x. Epub 2019 Nov 12.
3
Psychological and Brain Responses to Artificial Intelligence's Violation of Community Ethics.人工智能违反社区伦理时的心理和大脑反应。
Cyberpsychol Behav Soc Netw. 2024 Aug;27(8):562-570. doi: 10.1089/cyber.2023.0524. Epub 2024 May 17.
4
A conceptual and computational model of moral decision making in human and artificial agents.人类和人工智能主体道德决策的概念与计算模型。
Top Cogn Sci. 2010 Jul;2(3):454-85. doi: 10.1111/j.1756-8765.2010.01095.x. Epub 2010 May 13.
5
Toward Implementing the ADC Model of Moral Judgment in Autonomous Vehicles.迈向自动驾驶汽车中道德判断的 ADC 模型的实现。
Sci Eng Ethics. 2020 Oct;26(5):2461-2472. doi: 10.1007/s11948-020-00242-0.
6
The Human Side of Artificial Intelligence.人工智能的人文层面
Sci Eng Ethics. 2020 Oct;26(5):2427-2437. doi: 10.1007/s11948-020-00239-9.
7
How Could We Know When a Robot was a Moral Patient?当机器人成为道德病人时,我们如何知道?
Camb Q Healthc Ethics. 2021 Jul;30(3):459-471. doi: 10.1017/S0963180120001012.
8
The Moral Psychology of Artificial Intelligence.人工智能的道德心理学。
Annu Rev Psychol. 2024 Jan 18;75:653-675. doi: 10.1146/annurev-psych-030123-113559. Epub 2023 Sep 18.
9
AI Moral Enhancement: Upgrading the Socio-Technical System of Moral Engagement.人工智能道德增强:升级道德参与的社会技术系统。
Sci Eng Ethics. 2023 Mar 23;29(2):11. doi: 10.1007/s11948-023-00428-2.
10
Attributions toward artificial agents in a modified Moral Turing Test.在改良的道德图灵测试中对人工代理的归因。
Sci Rep. 2024 Apr 30;14(1):8458. doi: 10.1038/s41598-024-58087-7.

引用本文的文献

1
Framework-based qualitative analysis of free responses of Large Language Models: Algorithmic fidelity.基于框架的大语言模型自由回答定性分析:算法保真度
PLoS One. 2024 Mar 12;19(3):e0300024. doi: 10.1371/journal.pone.0300024. eCollection 2024.