Suppr超能文献

最优控制和自适应动态规划中的价值迭代和策略迭代。

Value and Policy Iterations in Optimal Control and Adaptive Dynamic Programming.

出版信息

IEEE Trans Neural Netw Learn Syst. 2017 Mar;28(3):500-509. doi: 10.1109/TNNLS.2015.2503980. Epub 2015 Dec 22.

Abstract

In this paper, we consider discrete-time infinite horizon problems of optimal control to a terminal set of states. These are the problems that are often taken as the starting point for adaptive dynamic programming. Under very general assumptions, we establish the uniqueness of the solution of Bellman's equation, and we provide convergence results for value and policy iterations.

摘要

在本文中,我们考虑了状态终端集的离散时间无限时域最优控制问题。这些问题通常被作为自适应动态规划的起点。在非常一般的假设下,我们建立了贝尔曼方程解的唯一性,并提供了价值迭代和策略迭代的收敛性结果。

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验