%0 Journal Article %T 基于状态回溯代价分析的启发式Q学习 %A 方敏 %A 李浩 %J 模式识别与人工智能 %P 838-844 %D 2013 %X 由于强化学习算法动作策略学习比较费时,提出一种基于状态回溯的启发式强化学习方法.分析强化学习过程中重复状态,通过比较状态回溯过程中重复动作的选择策略,引入代价函数描述重复动作的重要性.结合动作奖赏及动作代价提出一种新的启发函数定义.该启发函数在强调动作重要性以加快学习速度的同时,基于代价函数计算动作选择的代价以减少不必要的探索,从而平稳地提高学习效率.对基于代价函数的动作选择策略进行证明.建立两种仿真场景,将算法用于机器人路径规划的仿真实验.实验结果表明基于状态回溯的启发式强化学习方法能平衡考虑获得的奖赏及付出的代价,有效提高Q学习的收敛速度. %K 代价分析 %K 启发函数 %K 状态回溯 %K Q学习 %U http://manu12.magtech.com.cn/Jweb_prai/CN/abstract/abstract9535.shtml