机器学习, ')" href="#">强化学习, ')" href="#">正强化, ')" href="#">正交分解, ')" href="#">多臂老虎机, 干扰决策, Open Access Library" />
|
- 2018
基于正强化学习和正交分解的干扰策略选择算法DOI: 10.3969/j.issn.1001-506X.2018.03.05 Keywords: 机器学习&searchField=keyword">')" href="#">机器学习,强化学习&searchField=keyword"> ')" href="#">强化学习,正强化&searchField=keyword"> ')" href="#">正强化,正交分解&searchField=keyword"> ')" href="#">正交分解,多臂老虎机&searchField=keyword"> ')" href="#">多臂老虎机, 干扰决策 Abstract: 强化学习作为自学习和在线学习方法,以试错的方式与动态环境进行持续交互,进而学习到最优策略,成为机器学习领域一个重要的分支。针对当前无线通信干扰策略研究依赖先验信息以及学习速度过慢的缺点,提出了基于正强化学习-正交分解的干扰策略选择算法。该算法利用正强化的思想提高了最优动作被选中的概率,进而加快了系统的学习速度。特别地,当通信信号星座图因诸多因素而产生畸变时,利用提出的正交分解算法能够学习到最佳干扰信号的同相分量和正交分量,即通过学习获得最佳干扰样式。仿真结果表明,利用正强化学习-正交分解算法能够更加快速地学习到最优干扰参数和最佳干扰样式,相同任务中,仅需更少的交互次数且干扰效果更好,较现有干扰策略选择算法更优
|