%0 Journal Article %T SMDP基于Actor网络的统一NDP方法 %A 唐昊 %A 陈栋 %A 周雷 %A 吴玉华 %J 控制与决策 %P 155-159 %D 2007 %X 研究半马尔可夫决策过程(SMDP)基于性能势学习和策略逼近的神经元动态规划(NDP)方法.通过SMDP的一致马尔可夫链的单个样本轨道,给出了折扣和平均准则下统一的性能势TD(λ)学习算法,进行逼近策略评估.利用一个神经元网络逼近结构作为行动器(Actor)表示策略,并根据性能势的学习值给出策略参数改进的两种方法.最后通过数值例子说明了有关算法的有效性. %K Markov决策过程 %K 性能势 %K TD(λ)学习 %K 神经元动态规划 %U http://www.kzyjc.net:8080/CN/abstract/abstract9091.shtml