共查询到10条相似文献,搜索用时 31 毫秒
1.
2.
在非平衡数据分类问题中,为了合成有价值的新样本和删除无影响的原样本,提出一种基于边界混合重采样的非平衡数据分类算法。该算法首先引入支持k-离群度概念,找出数据集中的边界点集和非边界点集;利用改进的SMOTE算法将少数类中的边界点作为目标样本合成新的点集,同时对多数类中的非边界点采用基于距离的欠采样算法,以此达到类之间的平衡。通过实验结果对比表明了该算法在保证G-mean值较优的前提下,一定程度上提高了少数类的分类精度。 相似文献
3.
不平衡数据集中,样本的分布位置对于决策边界具有差异性,传统的采样方法没有根据样本位置做区别化采样处理。为此提出一种不平衡数据中基于异类k距离的边界混合采样算法(BHSK)。通过异类k距离识别出边界集;再根据支持度将边界少数类样本细分为三类,分别采用不同的过采样方法和过采样倍率,根据少数类样本的不同重要性进行过采样,生成更具有信息的样本点;根据异类k距离删除部分非边界多数类样本点。实验结果表明,该算法在最小距离分类法下的少数类识别性能较几种常见的采样算法提高了1%~11%,验证了其有效性。 相似文献
4.
根据孤立点是数据集合中与大多数数据的属性不一致的数据,边界点是位于不同密度数据区域边缘的数据对象,提出了基于相对密度的孤立点和边界点识别算法(OBRD)。该算法判断一个数据点是否为边界点或孤立点的方法是:将以该数据点为中心、r为半径的邻域按维平分为2个半邻域,由这些半邻域与原邻域的相对密度确定该数据点的孤立度和边界度,再结合阈值作出判断。实验结果表明,该算法能精准有效地对多密度数据集的孤立点和聚类边界点进行识别。 相似文献
5.
基于多判别参数混合方法的散乱点云特征提取 总被引:1,自引:0,他引:1
针对以往散乱点云特征提取算法存在尖锐特征点提取不完整以及无法保留模型边界点的问题,提出了一种多个判别参数混合方法的特征提取算法。首先,对点云构建k-d tree,利用k-d tree建立点云k邻域;然后,针对每个k邻域计算数据点曲率、点法向与邻域点法向夹角的平均值、点到邻域重心的距离、点到邻域点的平均距离;最后,据此四个参数定义特征阈值和特征判别参数,特征判别参数大于阈值的点即为特征点。实验结果表明,与已有算法相比,该算法不仅可以有效提取尖锐特征点,而且能够识别边界点。 相似文献
6.
7.
基于变异系数的边界点检测算法 总被引:2,自引:0,他引:2
为有效检测聚类的边界点,提出基于变异系数的边界点检测算法.首先计算出数据对象到它的k-距离邻居距离之和的平均值.然后用平均值的倒数作为每个点的密度,通过变异系数刻画数据对象密度分布特征寻找边界点.实验结果表明,该算法可在含有任意形状、不同大小和不同密度的数据集上快速有效检测出聚类的边界点,并可消除噪声. 相似文献
8.
针对传统采样方式准确率与鲁棒性不够明显,欠采样容易丢失重要的样本信息,而过采样容易引入冗杂信息等问题,以UCI公共数据集中的不平衡数据集Pima-Indians为例,综合考虑数据集正负类样本的类间距离、类内距离与不平衡度之间的关系,提出一种基于样本特性的新型过采样方式.首先对原始数据集进行距离带的划分,然后提出一种改进的基于样本特性的自适应变邻域Smote算法,在每个距离带的少数类样本中进行新样本的合成,并将此方式推广到UCI数据集中其他5种不平衡数据集.最后利用SVM分类器进行实验验证的结果表明:在6类不平衡数据集中,应用新型过采样SVM算法,相比已有的采样方式,少(多)数类样本的分类准确率均有明显提高,且算法具有更强的鲁棒性. 相似文献
9.
过采样和欠采样方法是处理非平衡数据集分类的常用方法,但使用单一的采样算法可能造成少数类样本过拟合或者丢失含有重要信息的样本。提出了基于分类超平面的混合采样算法SVM_HS(hybrid sampling algorithm based on support vector machine),旨在克服SVM算法在处理非平衡数据时分类超平面容易偏向少数类样本的问题。该算法首先利用SVM算法得到分类超平面。然后迭代进行混合采样,主要包括:(1)删除离分类超平面较远的一些多数类样本;(2)对靠近真实类边界的少数类样本用SMOTE(synthetic minority oversampling technique)过采样,使分类超平面向着真实类边界方向偏移。实验结果表明相比其他相关算法,该算法的F-value值和G-mean值均有较大提高。 相似文献