排序方式: 共有5条查询结果,搜索用时 130 毫秒
1
1.
2.
基于DCM的中文文本分类 总被引:1,自引:0,他引:1
当前提出的中文文本分类或多或少都存在分类速度或分类效果不佳的问题。使用DCM分类方法,采用国家语委平衡语料库进行分类测试,取得了开放测试平均查全率90.35%、平均准确率90.87%和封闭测试平均查全率98.36%、平均准确率98.74%的分类效果,说明DCM算法在分类效果上优于目前其他的中文文本分类方法。 相似文献
3.
4.
加快SMO算法训练速度的策略研究 总被引:1,自引:0,他引:1
SMO(序贯最小优化算法)算法是目前解决支持向量机训练问题的一种十分有效的方法,但是当面对大样本数据时,SMO训练速度比较慢。考虑到在SVM的优化过程中并不是所有样本都能影响优化进展,提出了两种删除样本的策略:一种是基于距离,一种是基于拉格朗日乘子的值。在几个著名的数据集的试验结果表明,两种策略都可以大大缩短SMO的训练时间,特别适用于大样本数据。 相似文献
5.
支持向量机的研究是当前人工智能领域的研究热点。基于支持向量机的大样本回归问题一直是一个非常具有挑战性的课题。最近,基于递归最小二乘算法,Engel等人提出了核递归最小二乘算法。文中基于块增量学习和逆学习过程,提出了自适应迭代回归算法。为了说明两种方法的性能,论文在训练速度、精度和支持向量数量等方面,对它们做了比较。模拟结果表明:核递归最小二乘算法所得到的支持向量个数比自适应迭代回归算法少,而训练时间比自适应迭代回归算法的训练时间长,训练和测试精度也比自适应迭代回归算法差。 相似文献
1