• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

论抽象的必要性。

On The Necessity of Abstraction.

作者信息

Konidaris George

机构信息

Computer Science Department, Brown University 115 Waterman Street Providence RI 02906.

出版信息

Curr Opin Behav Sci. 2019 Oct;29:1-7. doi: 10.1016/j.cobeha.2018.11.005. Epub 2018 Dec 14.

DOI:10.1016/j.cobeha.2018.11.005
PMID:31440528
原文链接:https://pmc.ncbi.nlm.nih.gov/articles/PMC6706087/
Abstract

A generally intelligent agent faces a dilemma: it requires a complex sensorimotor space to be capable of solving a wide range of problems, but many tasks are only feasible given the right problem-specific formulation. I argue that a necessary but understudied requirement for general intelligence is the ability to form task-specific abstract representations. I show that the reinforcement learning paradigm structures this question into how to learn action abstractions and how to learn state abstractions, and discuss the field's progress on these topics.

摘要

一个具备一般智能的智能体面临着一个两难困境

它需要一个复杂的感觉运动空间才能有能力解决广泛的问题,但许多任务只有在正确的特定问题表述下才可行。我认为,对于一般智能来说,一个必要但却未得到充分研究的要求是形成特定任务抽象表征的能力。我表明,强化学习范式将这个问题构建为如何学习动作抽象以及如何学习状态抽象,并讨论了该领域在这些主题上的进展。

相似文献

1
On The Necessity of Abstraction.论抽象的必要性。
Curr Opin Behav Sci. 2019 Oct;29:1-7. doi: 10.1016/j.cobeha.2018.11.005. Epub 2018 Dec 14.
2
Implementation and evaluation of a multivariate abstraction-based, interval-based dynamic time-warping method as a similarity measure for longitudinal medical records.基于多元抽象和区间的动态时间规整方法的实现和评估,作为一种用于纵向医疗记录的相似性度量方法。
J Biomed Inform. 2021 Nov;123:103919. doi: 10.1016/j.jbi.2021.103919. Epub 2021 Oct 8.
3
Information Optimization and Transferable State Abstractions in Deep Reinforcement Learning.深度强化学习中的信息优化与可迁移状态抽象。
IEEE Trans Pattern Anal Mach Intell. 2023 Apr;45(4):4782-4793. doi: 10.1109/TPAMI.2022.3200726. Epub 2023 Mar 7.
4
Reward-predictive representations generalize across tasks in reinforcement learning.在强化学习中,奖励预测表示可以跨任务泛化。
PLoS Comput Biol. 2020 Oct 15;16(10):e1008317. doi: 10.1371/journal.pcbi.1008317. eCollection 2020 Oct.
5
Abstraction and analogy in AI.人工智能中的抽象与类比。
Ann N Y Acad Sci. 2023 Jun;1524(1):17-21. doi: 10.1111/nyas.14995. Epub 2023 Apr 4.
6
STACoRe: Spatio-temporal and action-based contrastive representations for reinforcement learning in Atari.STACoRe:用于雅达利强化学习的基于时空和动作对比的表示方法。
Neural Netw. 2023 Mar;160:1-11. doi: 10.1016/j.neunet.2022.12.018. Epub 2022 Dec 29.
7
What Is the Model in Model-Based Planning?基于模型规划中的模型是什么?
Cogn Sci. 2021 Jan;45(1):e12928. doi: 10.1111/cogs.12928.
8
Toward Generalization of Automated Temporal Abstraction to Partially Observable Reinforcement Learning.迈向部分可观察强化学习中自动化时间抽象的泛化。
IEEE Trans Cybern. 2015 Aug;45(8):1414-25. doi: 10.1109/TCYB.2014.2352038. Epub 2014 Sep 9.
9
Hierarchical intrinsically motivated agent planning behavior with dreaming in grid environments.网格环境中具有梦境的分层内在动机智能体规划行为
Brain Inform. 2022 Apr 2;9(1):8. doi: 10.1186/s40708-022-00156-6.
10
Hierarchical planning with state abstractions for temporal task specifications.用于时态任务规范的具有状态抽象的分层规划。
Auton Robots. 2022;46(6):667-683. doi: 10.1007/s10514-022-10043-y. Epub 2022 Jun 4.

引用本文的文献

1
Humans learn generalizable representations through efficient coding.人类通过高效编码学习可泛化的表征。
Nat Commun. 2025 Apr 29;16(1):3989. doi: 10.1038/s41467-025-58848-6.
2
Schemas, reinforcement learning and the medial prefrontal cortex.图式、强化学习与内侧前额叶皮质
Nat Rev Neurosci. 2025 Mar;26(3):141-157. doi: 10.1038/s41583-024-00893-z. Epub 2025 Jan 7.
3
Two types of motifs enhance human recall and generalization of long sequences.两种基序增强了人类对长序列的记忆和泛化能力。
Commun Psychol. 2025 Jan 7;3(1):3. doi: 10.1038/s44271-024-00180-8.
4
Abstract representations emerge in human hippocampal neurons during inference.抽象表示在人类海马体神经元的推理过程中出现。
Nature. 2024 Aug;632(8026):841-849. doi: 10.1038/s41586-024-07799-x. Epub 2024 Aug 14.
5
A Variable Clock Underlies Internally Generated Hippocampal Sequences.内部产生的海马体序列由一个可变时钟控制。
J Neurosci. 2022 May 4;42(18):3797-3810. doi: 10.1523/JNEUROSCI.1120-21.2022. Epub 2022 Mar 29.
6
How the Mind Creates Structure: Hierarchical Learning of Action Sequences.思维如何构建结构:动作序列的分层学习
Cogsci. 2021 Jul;43:618-624.
7
A Novel Methodology for Measuring the Abstraction Capabilities of Image Recognition Algorithms.一种用于测量图像识别算法抽象能力的新颖方法。
J Imaging. 2021 Aug 19;7(8):152. doi: 10.3390/jimaging7080152.
8
Value signals guide abstraction during learning.价值信号指导学习中的抽象过程。
Elife. 2021 Jul 13;10:e68943. doi: 10.7554/eLife.68943.
9
Computational evidence for hierarchically structured reinforcement learning in humans.人类强化学习的分层结构计算证据。
Proc Natl Acad Sci U S A. 2020 Nov 24;117(47):29381-29389. doi: 10.1073/pnas.1912330117.
10
Beyond dichotomies in reinforcement learning.超越强化学习中的二分法。
Nat Rev Neurosci. 2020 Oct;21(10):576-586. doi: 10.1038/s41583-020-0355-6. Epub 2020 Sep 1.

本文引用的文献

1
A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play.一种通过自我对弈掌握国际象棋、将棋和围棋的通用强化学习算法。
Science. 2018 Dec 7;362(6419):1140-1144. doi: 10.1126/science.aar6404.
2
Human-level control through deep reinforcement learning.通过深度强化学习实现人类水平的控制。
Nature. 2015 Feb 26;518(7540):529-33. doi: 10.1038/nature14236.
3
Optimal behavioral hierarchy.最佳行为层次结构。
PLoS Comput Biol. 2014 Aug 14;10(8):e1003779. doi: 10.1371/journal.pcbi.1003779. eCollection 2014 Aug.
4
Representation learning: a review and new perspectives.表示学习:综述与新视角。
IEEE Trans Pattern Anal Mach Intell. 2013 Aug;35(8):1798-828. doi: 10.1109/TPAMI.2013.50.