%0 Journal Article %T 一种求解强凸优化问题的最优随机算法 %A 邵言剑? %A 陶卿? %A 姜纪远? %A 周柏? %J 软件学报 %P 2160-2171 %D 2014 %R 10.13328/j.cnki.jos.004633 %X 随机梯度下降(sgd)算法是处理大规模数据的有效方法之一.黑箱方法sgd在强凸条件下能达到最优的o(1/t)收敛速率,但对于求解l1+l2正则化学习问题的结构优化算法,如comid(compositeobjectivemirrordescent)仅具有o(lnt/t)的收敛速率.提出一种能够保证稀疏性基于comid的加权算法,证明了其不仅具有o(1/t)的收敛速率,还具有on-the-fly计算的优点,从而减少了计算代价.实验结果表明了理论分析的正确性和所提算法的有效性. %K 机器学习 %K 随机优化 %K 强凸问题 %K 混合正则化项 %K comid %K (composite %K objective %K mirror %K descent) %U http://www.jos.org.cn/ch/reader/view_abstract.aspx?file_no=4633&flag=1