首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   40篇
  免费   3篇
  国内免费   12篇
机械仪表   2篇
武器工业   3篇
无线电   5篇
自动化技术   45篇
  2024年   1篇
  2023年   1篇
  2022年   2篇
  2021年   2篇
  2020年   3篇
  2019年   1篇
  2017年   2篇
  2016年   1篇
  2015年   2篇
  2014年   5篇
  2013年   2篇
  2012年   3篇
  2011年   2篇
  2010年   1篇
  2009年   3篇
  2008年   1篇
  2007年   3篇
  2005年   3篇
  2004年   1篇
  2002年   5篇
  2001年   3篇
  2000年   7篇
  1999年   1篇
排序方式: 共有55条查询结果,搜索用时 0 毫秒
1.
陶卿  王珏  薛美盛 《计算机学报》2002,25(10):1111-1115
利用闭凸集上的投影解释support vector的几何意义,利用支持超平面讨论线性分类器的设计问题,对线性可分情形,Support vector由一类数据集合闭凸包在另一类数据集合闭凸包上投影的非零系数向量组成,SVM所决定的超平面位于两投影点关于各自数据集合支持超平面的中间,作为应用,文中给出一种设计理想联想记忆前馈神经网络的方法,它是FP算法的一般化。  相似文献   
2.
L1正则化在稀疏学习的研究中起关键作用,使用截断L1正则化项往往可以获得更好的准确率,但却导致了非凸优化问题.目前,主要采用多阶段凸松弛(multi-stage convex relaxation, MSCR)算法进行求解,由于每一阶段都需要求解一个凸优化问题,计算代价较大.为了弥补上述不足,提出了一种求解截断L1正则化项非凸学习问题的坐标下降算法(Non-convex CD).该算法只需在多阶段凸松弛算法的每一阶段执行单步的坐标下降算法,有效降低了计算复杂性.理论分析表明所提出的算法是收敛的.针对Lasso问题,在大规模真实数据库作了实验,实验结果表明,Non-convex CD在取得和MSCR几乎相同准确率的基础上,求解的CPU时间甚至优于求解凸问题的坐标下降方法.为了进一步说明所提算法的性能,进一步研究了Non-convex CD在图像去模糊化中的应用问题.  相似文献   
3.
在光滑问题随机方法中使用减小方差策略,能够有效改善算法的收敛效果.文中同时引用加权平均和减小方差的思想,求解“L1+L2+Hinge”非光滑强凸优化问题,得到减小方差加权随机算法(α-HRMDVR-W).在每步迭代过程中使用减小方差策略,并且以加权平均的方式输出,证明其具有最优收敛速率,并且该收敛速率不依赖样本数目.与已有减小方差方法相比,α-HRMDVR-W每次迭代中只使用部分样本代替全部样本修正梯度.实验表明α-HRMDVR-W在减小方差的同时也节省CPU时间.  相似文献   
4.
基于约束区域的BSB联想记忆模型   总被引:2,自引:0,他引:2  
提出一种根据联想记忆点设计基于约束区域的BSB(Brain-State-inm-a-Box)神经网络模型,它保证了渐近稳定的平衡点集与样本点集相同,不渐近稳定的平衡点恰为实际的拒识状态,并且吸引域分布合理,从而将ESB完善为理想的联想记忆器。  相似文献   
5.
基于支持向量机分类的回归方法   总被引:23,自引:0,他引:23  
陶卿  曹进德  孙德敏 《软件学报》2002,13(5):1024-1028
支持向量机(support vector machine,简称SVM)是一种基于结构风险最小化原理的分类技术,也是一种新的具有很好泛化性能的回归方法.提出了一种将回归问题转化为分类问题的新思想.这种方法具有一定的理论依据,与SVM回归算法相比,其优化问题几何意义清楚明确.  相似文献   
6.
对于一般凸问题,对偶平均方法的收敛性分析需要在对偶空间进行转换,难以得到个体收敛性结果.对此,文中首先给出对偶平均方法的简单收敛性分析,证明对偶平均方法具有与梯度下降法相同的最优个体收敛速率Ο(lnt/t).不同于梯度下降法,讨论2种典型的步长策略,验证对偶平均方法在个体收敛分析中具有步长策略灵活的特性.进一步,将个体收敛结果推广至随机形式,确保对偶平均方法可有效处理大规模机器学习问题.最后,在L1范数约束的hinge损失问题上验证理论分析的正确性.  相似文献   
7.
8.
非线性规划神经网络模型   总被引:1,自引:0,他引:1  
本文提出一种求解闭凸集上非线性规划问题的神经网络模型,给出了它的Liapunov函数,在适当的假设下,运用La Salle不变性原理证明了它的大范围渐近稳定性,并给出了计算机模拟。  相似文献   
9.
动量方法由于能够改善SGD(stochastic gradient descent)的收敛性能而倍受机器学习研究者的关注.随着其在深度学习的成功应用,动量方法出现了众多形式的变体.特别地,产生了SUM(stochastic unified momentum)和QHM(quasi-hyperbolic momentum)两种统一框架.但是,即使是对非光滑凸优化问题,其最优平均收敛性的获得仍然存在着固定迭代步数和无约束等不合理限制.为此,提出了一种更一般的含三参数的统一化动量方法TPUM(triple-parameters unified momentum),能够同时包含SUM和QHM;其次,针对约束的非光滑凸优化问题,在采取时变步长的条件下,证明了所提出的TPUM具有最优的平均收敛速率,并将其推广到随机情况,从而保证了添加动量不会影响标准梯度下降法的收敛性能以及动量方法对机器学习问题的可应用性.典型的L1范数约束hinge损失函数优化问题实验验证了理论分析的正确性.  相似文献   
10.
动量方法作为一种加速技巧被广泛用于提高一阶梯度优化算法的收敛速率.目前,大多数文献所讨论的动量方法仅限于Nesterov提出的加速方法,而对Polyak提出的Heavy-ball型动量方法的研究却较少.特别,在目标函数非光滑的情形下,Nesterov加速方法具有最优的个体收敛性,并在稀疏优化问题的求解中具有很好的效果.但对于Heavy-ball型动量方法,目前仅仅获得了平均输出形式的最优收敛速率,个体收敛是否具有最优性仍然未知.对于非光滑优化问题,通过巧妙地设置步长,证明了Heavy-ball型动量方法具有最优的个体收敛速率,从而说明了Heavy-ball型动量方法可以将投影次梯度方法的个体收敛速率加速至最优.作为应用,考虑了l\\-1范数约束的hinge损失函数优化问题.通过与同类的优化算法相比,实验验证了该理论分析的正确性以及所提算法在保持稀疏性方面的良好性能.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号