首页 | 本学科首页   官方微博 | 高级检索  
     

一种具有O(1/T)收敛速率的稀疏随机算法
引用本文:姜纪远,夏良,章显,陶卿.一种具有O(1/T)收敛速率的稀疏随机算法[J].计算机研究与发展,2014,51(9).
作者姓名:姜纪远  夏良  章显  陶卿
作者单位:中国人民解放军陆军军官学院 合肥 230031
基金项目:国家自然科学基金项目,安徽省自然科学基金项目
摘    要:随机梯度下降(stochastic gradient descent,SGD)是一种求解大规模优化问题的简单高效方法,近期的研究表明,在求解强凸优化问题时其收敛速率可通过α-suffix平均技巧得到有效的提升.但SGD属于黑箱方法,难以得到正则化优化问题所期望的实际结构效果.另一方面,COMID(composite objective mirror descent)是一种能保证L1正则化结构的稀疏随机算法,但对于强凸优化问题其收敛速率仅为O(logT?T).主要考虑"L1+Hinge"优化问题,首先引入L2强凸项将其转化为强凸优化问题,进而将COMID算法和α-suffix平均技巧结合得到L1MD-α算法.证明了L1MD-α具有O(1?T)的收敛速率,并且获得了比COMID更好的稀疏性.大规模数据库上的实验验证了理论分析的正确性和所提算法的有效性.

关 键 词:机器学习  随机优化  稀疏性  L正则化  COMID

A Sparse Stochastic Algorithm with O(1/T) Convergence Rate
Jiang Jiyuan,Xia Liang,Zhang Xian,Tao Qing.A Sparse Stochastic Algorithm with O(1/T) Convergence Rate[J].Journal of Computer Research and Development,2014,51(9).
Authors:Jiang Jiyuan  Xia Liang  Zhang Xian  Tao Qing
Abstract:
Keywords:machine learning  stochastic optimization  sparsity  L1 regularization  COMID (composite objective mirror descent)
本文献已被 CNKI 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号