强化学习离线策略评估研究综述 |
| |
作者姓名: | 王硕汝 牛温佳 童恩栋 陈彤 李赫 田蕴哲 刘吉强 韩臻 李浥东 |
| |
作者单位: | 北京交通大学智能交通数据安全与隐私保护北京市重点实验室 |
| |
基金项目: | 国家自然科学基金(61972025,61802389,61672092,U1811264,61966009);;国家重点研发计划(2020YFB1005604,2020YFB2103802)资助; |
| |
摘 要: | 在强化学习应用中,为避免意外风险,需要在强化学习实际部署前进行离线策略评估(Off-Policy Evaluation,OPE),这在机器人、自动驾驶等领域产生了巨大的应用前景.离线策略评估是从行为策略收集到的轨迹数据中,不需要通过实际的强化学习而估计目标策略的状态价值,通常情况下学习目标是使所估计的目标策略状态价值与目标策略真实执行的状态价值均方误差尽可能小.行为策略与目标策略间的差异性,以及新应用中出现的行为策略奖励稀疏性,不断给离线策略评估带来了挑战.本文系统性地梳理了近二十年离线策略评估的主要方法:纯模型法、重要性采样法、混合模型法和PU学习法(Positive Unlabeled,PU),主要内容包括:(1)描述了离线策略评估的相关理论背景知识;(2)分别阐述了各类方法的机理、方法中模型的细节差异;(3)详细对各类方法及模型进行了机理对比,并通过实验进行了主流离线策略评估模型的程序复现与性能对比.最后展望了离线策略评估的技术挑战与可能发展方向.
|
关 键 词: | 人工智能 强化学习 离线策略评估 重要性采样 PU学习 |
|
|