首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
在实际电子侦察过程中,由于各种原因,侦收到的不同类型信号数量相差很大,类别之间严重不平衡,常规方法在这种数据集下训练得到的分类器不能有效识别少数类。针对这一问题,首先采用栈式自编码器对中频数据进行降维和特征提取;然后在降维后的特征空间内通过多种过采样方法生成新的少数类样本,使数据集重新平衡,并利用再平衡后的数据集训练支持向量机分类器;最后采用F分数和受试者工作特征(Receiver Operating Characteristic,ROC)曲线两种评价方法对分类效果进行评价。实验结果表明,通过过采样处理,分类器对少数类的识别性能有所提升。  相似文献   

2.
极限学习机(ELM)作为一种新型神经网络,具有极快的训练速度和良好的泛化性能。针对极限学习机在处理高维数据时计算复杂度高,内存需求巨大的问题,该文提出一种批次继承极限学习机(B-ELM)算法。首先将数据集均分为不同批次,采用自动编码器网络对各批次数据进行降维处理;其次引入继承因子,建立相邻批次之间的关系,同时结合正则化框架构建拉格朗日优化函数,实现批次极限学习机数学建模;最后利用MNIST, NORB和CIFAR-10数据集进行测试实验。实验结果表明,所提算法具有较高的分类精度,并且有效降低了计算复杂度和内存消耗。  相似文献   

3.
电信用户欠费预测是一个不平衡数据集分类问题.针对传统支持向量机(SVM)对不均衡数据集中少数类检测精度低的问题,基于分类平面由边界样本的位置决定,提出了一种通过删除部分多数类边界样本的方法来改善传统SVM算法的不足,将该算法和其他几种算法在电信数据和多个不平衡UCI数据集上的实验结果进行对比,验证所提算法对少数类的检测精度和总体评价指标都有所提高.  相似文献   

4.
对于多标签分类中存在非线性的数据样本和重复的样本数据问题,本文提出了一种基于在线顺序极限学习机(On?line Sequential Extreme Learning Machine,OS-ELM)的改进算法—样本线性化和数据预处理极限学习机(PDC-ELM).PDC-ELM算法对线性不可分的数据样本先利用核函数进行处理,使数据样本具有线性可分的特征,对于处理后的数据样本,利用在线顺序极限学习机(OS-ELM)在计算之前对分类数据进行预处理,即从训练和测试数据集中查找不一样的特征标签并保存类标签中,实验中新生成的标签组将不具有重复的特征标签,大大减少了训练的对比次数.实验表明,相比于其他没有样本线性化和数据预处理的极限学习机模型,计算的准确度得到很大的提升,计算时间也有所降低.  相似文献   

5.
凸优化形式的核极限学习机(KELM)具有较高的分类准确率,但用迭代法训练凸优化核极限学习机要较传统核极限学习机的解线性方程法花费更长时间。针对此问题,该文提出一种2元裂解算子交替方向乘子法(BSADMM-KELM)来提高凸优化核极限学习机的训练速度。首先引入2元裂解算子,将求核极限学习机最优解的过程分裂为两个中间算子的优化过程,再通过中间算子的迭代计算而得到原问题的最优解。在22个UCI数据集上所提算法的训练时间较有效集法平均快29倍,较内点法平均快4倍,分类精度亦优于传统的核极限学习机;在大规模数据集上该文算法的训练时间优于传统核极限学习机。  相似文献   

6.
凸优化形式的核极限学习机(KELM)具有较高的分类准确率,但用迭代法训练凸优化核极限学习机要较传统核极限学习机的解线性方程法花费更长时间.针对此问题,该文提出一种2元裂解算子交替方向乘子法(BSADMM-KELM)来提高凸优化核极限学习机的训练速度.首先引入2元裂解算子,将求核极限学习机最优解的过程分裂为两个中间算子的优化过程,再通过中间算子的迭代计算而得到原问题的最优解.在22个UCI数据集上所提算法的训练时间较有效集法平均快29倍,较内点法平均快4倍,分类精度亦优于传统的核极限学习机;在大规模数据集上该文算法的训练时间优于传统核极限学习机.  相似文献   

7.
一种基于核SMOTE的非平衡数据集分类方法   总被引:7,自引:0,他引:7       下载免费PDF全文
曾志强  吴群  廖备水  高济 《电子学报》2009,37(11):2489-2495
 本文提出一种基于核SMOTE(Synthetic Minority Over-sampling Technique)的分类方法来处理支持向量机(SVM)在非平衡数据集上的分类问题.其核心思想是首先在特征空间中采用核SMOTE方法对少数类样本进行上采样,然后通过输入空间和特征空间的距离关系寻找所合成样本在输入空间的原像,最后再采用SVM对其进行训练.实验表明,核SMOTE方法所合成的样本质量高于SMOTE算法,从而有效提高SVM在非平衡数据集上的分类效果.  相似文献   

8.
针对不平衡数据分类问题,在数据层面对不平衡数据集进行预处理,即对多数类数据进行先聚类,后欠采样的方式,减少多数类数据的数目,降低数据集的不平衡度,之后再用KNN算法对其进行分类。实验结果表明,对数据层面的预处理,使少数类数据的分类效果得到了提升。  相似文献   

9.
针对特定辐射源识别(SEI)识别准确率较低和单次样本学习花销较大的问题,该文提出一种基于增量式学习的SEI方法,设计多个连续增量深度极限学习机(CIDELM)。从截获信号中分别提取变分模态分解(VMD)后的Hilbert谱投影和高阶谱,降维后作为射频指纹(RFF)用于分类;在极限学习机(ELM)中采用稀疏自编码结构对多个隐含层进行无监督训练,并利用参数搜索策略确定最佳隐含层数和隐节点个数,实现对多批次标记样本的连续在线匹配。实验结果表明,该方法对不同调制方式、载波频率和收发距离均能表现出良好兼容性,能够实现对于多个辐射源个体的有效识别。  相似文献   

10.
针对处理不平衡数据集的分类问题,SMOTE通过在相邻样例间线性插值实现少数类样例过采样。但SMOTE插值的结果是样例密集的地方依然相对密集,样例稀疏的地方依然相对稀疏,影响分类性能。针对该问题本文提出一种基于聚类的过采样方法-C-SMOTE。该方法首先将少数类样例聚成多个簇,再以簇为单位结合SMOTE方法产生新样例。实验结果表明,C-SMOTE既保证了数据集整体分类准确率,又能提高少数类分类精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号