首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
讨对BP(Back-propagation)人工神经网络用于FCC(Fluidcatalyticcracking)产品收率预测建模时稀疏点样本吻合性较差的问题,提出了①先对样本在空间用聚类分析法进行定位,确定那些是稀疏点、孤点和病点;②孤点用于训练;③剔除病点;④加大稀疏点对目标函数的权重改善稀疏点样本的吻合性,提高了模型的适应性和精度。  相似文献   

2.
针对传统支持向量机(SVM)多分类一对多算法存在的运算量大、耗时长、数据偏斜以及对最优超平面附近点分类易出错问题,提出了一种改进方法。将数据空间分为密集区和稀疏区,各类中密集点归于密集区,其余归于稀疏区。将每类中密集点连同它附近的点用于训练得到相应的SVM分类器。在测试阶段,对密集区的待测样本用传统的一对多判别准则来做类别预测;对稀疏区的待测样本则采用K近邻(KNN)算法。数值实验结果表明,改进的算法在耗时和分类精度上都优于原算法,对解决一对多算法存在的问题有较好的成效。  相似文献   

3.
人脸识别的主要难度在于,受到光照变化、表情变化以及遮挡的影响,会使得采集的不同人的人脸图像具有相似性。为有效解决基于稀疏表示的分类算法(Sparse Representation-based Classification,SRC)在人脸训练样本不足时会导致识别率降低和稀疏表示求解效率较低的问题,提出了基于判别性低秩分解与快速稀疏表示分类(Low Rank Recovery Fast Sparse Representation-based Classification,LRR_FSRC)的人脸识别算法。利用低秩分解理论得到低秩恢复字典以及稀疏误差字典,结合低秩分解和结构不相干理论,训练出判别性低秩类字典和稀疏误差字典,并把它们结合作为测试时所用的字典;用坐标下降法来求解稀疏系数以提高了计算效率;根据重构误差实现测试样本的分类。在YALE和ORL数据库上的实验结果表明,提出的基于LRR_FSRC的人脸识别方法具有较高的识别率和计算效率。  相似文献   

4.
针对不平衡数据集分类效果不理想的问题,提出了一种新的基于混合采样的不平衡数据集算法(BSI)。通过引进“变异系数”找出样本的稀疏域和密集域,针对稀疏域中的少数类样本,提出了一种改进SMOTE算法的过采样方法(BSMOTE);对密集域中的多数类样本,提出了一种改进的欠采样方法(IS)。通过在六种不平衡数据集上的实验表明,该算法与传统算法相比,取得了更高的G-mean值、F-value值、AUC值,有效改善了不平衡数据集的综合分类性能。  相似文献   

5.
针对单幅图像超分辨率(SR)复原样本资源不足和抗噪性差的问题,提出一种基于结构自相似和形变块特征的单幅图像超分辨率算法。首先,该方法通过构建尺度模型,尽可能地扩展搜索空间,克服单幅图像超分辨率训练样本不足的缺陷;接着,通过样例块的几何形变提升了局限性的内部字典大小;最后,为了提升重建图片的抗噪性,利用组稀疏学习字典来重建图像。实验结果表明:与Bicubic、稀疏字典学习(ScSR)算法和基于卷积神经网络的超分辨率(SRCNN)等优秀字典学习算法相比,所提算法可以得到主观视觉效果更为清晰和客观评价更高的超分辨率图像,峰值信噪比(PSNR)平均约提升了0.35 dB。另外所提算法通过几何形变的方式扩展了字典规模和搜索的准确性,在算法时间消耗上平均约减少了80 s。  相似文献   

6.
简论AutoCAD图形环境下的交互式设计   总被引:1,自引:0,他引:1  
本文讨论了在AutoCAD图形环境下,交互式设计必须具备的功能;阐述了AutoCAD11.0版提供的新的概念和手段,并说明了如何将这些新等点用于交互式设计。作者还给出了ADS(AutoCAODevelopmentSystem)环境下,用HighC语言完成的几个用于交互式设计的核心程序。  相似文献   

7.
对工具及其功用性部件的认知是共融机器人智能提升的重要研究方向.本文针对家庭日常工具的功用性部件建模与检测问题展开研究,提出了一种基于条件随机场(Conditional random field,CRF)和稀疏编码联合学习的家庭日常工具功用性部件检测算法.首先,从工具深度图像提取表征工具功用性部件的几何特征;然后,分析CRF和稀疏编码之间的耦合关系并进行公式化表示,将特征稀疏化后作为潜变量构建初始条件随机场模型,并进行稀疏字典和CRF的协同优化:一方面,将特征的稀疏表示作为CRF的随机变量条件及权重参数选择器;另一方面,在CRF调控下对稀疏字典进行更新.随后使用自适应时刻估计(Adaptive moment estimation,Adam)方法实现模型解耦与求解.最后,给出了基于联合学习的工具功用性部件模型离线构建算法,以及基于该模型的在线检测方法.实验结果表明,相较于使用传统特征提取和模型构建方法,本文方法对功用性部件的检测精度和效率均得到提升,且能够满足普通配置机器人对工具功用性认知的需要.  相似文献   

8.
代雨柔  杨庆  张凤荔  周帆 《计算机应用》2021,41(9):2545-2551
针对当前用户轨迹数据建模中存在的签到点稀疏性、长时间依赖性和移动模式复杂等问题,提出基于自监督学习的社交网络用户轨迹预测模型SeNext,对用户轨迹进行建模和训练来预测用户的下一个兴趣点(POI)。首先,使用数据增强的方式来丰富训练数据样本,以解决数据不足及个别用户足迹太少导致的模型泛化能力不足的问题;其次,将循环神经网络(RNN)、卷积神经网络(CNN)和注意力机制分别用于当前轨迹和历史轨迹的建模中,以此从高维稀疏的数据中提取有用的表示,用来匹配用户过去最相似的移动方式。最后,通过结合自监督学习并引入对比损失优化噪声对比估计(InfoNCE),SeNext在潜在空间学习隐含表示来预测用户的下一个POI。实验结果表明,在纽约数据集上,SeNext比最新的VANext(Variational Attention based Next)模型的预测准确度在Top@1上提高了11.10%左右。  相似文献   

9.
对航段截尾油耗数据进行区间估计时,数据分布的稀疏性及非正态性会导致传统基于单因素的油耗估计区间难以建立。针对上述问题,提出基于分类和沙普利加性解释(classification and Shapley additive explanations,C-SHAP)的改进分位数回归森林区间估计(quantile regression forest,QRF)方法。通过C-SHAP方法,筛选全航程和各飞行阶段特征得到最优输入特征集;采用随机过采样算法增加训练集中截尾油耗样本的权值,提高QRF模型的估计性能;通过QRF估计给定上、下限油耗条件分位数,构建估计区间。实验结果表明,该方法的特征选择合理、估计区间质量较高。  相似文献   

10.
文章首次提出了(15,5,7)BCH码以FEC方式用于井下漏泄移动数字传输系统的差错控制技术;分析了其用于井下漏泄移动数字传输系统中的性能指标,给出了用单片机软件实现(15,5,7)BCH码编译码算法的程序框图。  相似文献   

11.
在模式识别中,如何在提取关键特征的同时对样本进行降维与识别是研究的热点之一。在局部Fisher判别分析(LFDA)的基础上,结合张量表示和稀疏分析,本文提出一种基于稀疏张量的特征提取方法:稀疏张量局部Fisher判别分析(STLFDA)。该方法把张量局部Fisher判别分析(TLFDA)算法中特征分解问题转化为线性回归问题,并用弹性网络解决线性回归中的特征选择问题,既满足了张量局部Fisher判别分析的目标,又保证了得到的投影矩阵的稀疏性。通过在Weizmann人体行为数据库上的实验,表明了稀疏张量局部Fisher判别分析(STLFDA)算法的有效性。  相似文献   

12.
针对传统聚类算法在对缺失样本进行数据填充过程中存在样本相似度难度量且填充数据质量差的问题,提出一种基于潜在因子模型(LFM)在子空间上的缺失值注意力聚类算法。首先,通过LFM将原始数据空间映射到低维子空间,降低样本的稀疏程度;其次,通过分解原空间得到的特征矩阵构建不同特征间的注意力权重图,优化子空间样本间的相似度计算方式,使样本相似度的计算更准确、泛化性更好;最后,为了降低样本相似度计算过程中过高的时间复杂度,设计一种多指针的注意力权重图进行优化。在4个按比例随机缺失的数据集上进行实验。在Hand-digits数据集上,相较于面向高维特征缺失数据的K近邻插补子空间聚类(KISC)算法,在数据缺失比例为10%的情况下,所提算法的聚类准确度(ACC)提高了2.33个百分点,归一化互信息(NMI)提高了2.77个百分点,在数据缺失比例为20%的情况下,所提算法的ACC提高了0.39个百分点,NMI提高了1.33个百分点,验证了所提算法的有效性。  相似文献   

13.
针对训练样本或测试样本存在污损的情况,提出一种结构化加权稀疏低秩恢复算法(structured and weighted-sparse low rank representation,SWLRR)。SWLRR对低秩表示进行加权稀疏约束和结构化约束,使得低秩表示系数更加趋近于块对角结构,进而可获得具有判别性的低秩表示。SWLRR将训练样本恢复成干净训练样本后,再根据原始训练样本和恢复后的训练样本学习到低秩投影矩阵,把测试样本投影到相应的低秩子空间,即可有效地去除测试样本中的污损部分。在几个人脸数据库上的实验结果验证了SWLRR在不同情况下的有效性和鲁棒性。  相似文献   

14.
陈善学  储成泉 《计算机应用》2019,39(8):2276-2280
针对基于非负矩阵分解(NMF)的高光谱解混存在的容易陷入局部极小值和受初始值影响较大的问题,提出一种稀疏和正交约束相结合的NMF的线性解混算法SONMF。首先,从传统的基于NMF的高光谱线性解混方法出发,分析高光谱数据本身的理化特性;然后,结合丰度的稀疏性和端元的独立性两个方面,将稀疏非负矩阵分解(SNMF)和正交非负矩阵分解(ONMF)两种方法结合应用到高光谱解混当中。模拟数据和真实数据实验表明,相比顶点成分分析法(VCA)、SNMF和ONMF这三种参考解混算法,所提算法提高了线性解混的性能;其中,评价指标光谱角距离(SAD)降低了0.012~0.145。SONMF能够结合两种约束条件的优势,弥补传统基于NMF线性解混方法对高光谱数据表达的不足,取得较好的效果。  相似文献   

15.
3D点云语义分割在自动驾驶等现实应用中起着重要作用。现有大部分点云语义分割方法均依赖于大量获取成本昂贵的点级标签用于全监督训练,且在推理时无法扩展到对不可见新类的识别上。为克服上述限制,少样本学习(few-shot learning)通过仅使用少量标注的新类样本来实现到新知识的泛化。在对原型网络(prototypical network)研究基础上,设计一种对点云视觉原型进行自对齐、跨对齐正则化,并进一步矫正优化的少样本3D点云语义分割框架,以充分利用支撑集信息。在公开数据集S3DIS和ScanNet上不同少样本设置下(N-way,K-shot)的实验充分证明了方法在分割效果和推理效率上的优越性。  相似文献   

16.
支持向量回归机是一种解决回归问题的重要方法,其预测速度与支持向量的稀疏性成正比。为了改进支持向量回归机的稀疏性,提出了一种直接稀疏支持向量回归算法DSKR(Direct Sparse Kernel Support Vector Regression),用于构造稀疏性支持向量回归机。DSKR算法对ε-SVR(ε-Support Vector Regression)增加一个非凸约束,通过迭代优化的方式,得到稀疏性好的支持向量回归机。在人工数据集和真实世界数据集上研究DSKR算法的性能,实验结果表明,DSKR算法可以通过调控支持向量的数目,提高支持向量回归机的稀疏性,且具有较好的鲁棒性。  相似文献   

17.
稀疏保留投影通过保留样本之间的全局稀疏重构关系来进行特征提取,获得了良好的分类效果。但是,稀疏保留投影得到的投影变换通常不是正交的,而且在实际应用中,正交性一直被认为有利于提高鉴别能力。另外,根据流形学习理论,局部流形结构比全局欧式结构更重要。因此,文中在稀疏保留投影中引入了流形结构保留和正交投影,提出了整体正交流形稀疏保留投影(HOMSPP)和迭代正交流形稀疏保留投影(IOMSPP)两种实现算法来实现人脸和掌纹图像的特征提取。  相似文献   

18.
任福龙  曹鹏  万超  赵大哲 《计算机应用》2018,38(7):2124-2129
针对传统糖尿病视网膜病变(糖网)分级诊断系统中,由于数据集中缺少病灶区域的标记和类别分布的不平衡性导致无法有效地进行监督性分类的问题,提出基于代价敏感的半监督Bagging(CS-SemiBagging)的糖网分级方法。首先,从眼底图像上删除视网膜血管,并在此图像上检测疑似的红色病灶(微动脉瘤(MAs)与出血斑(HEMs));然后,从颜色、形状和纹理方面提取22维的特征用于描述每个病灶区域;其次,构建一个CS-SemiBagging模型对MAs与HEMs进行分类;最后,依据不同病灶的数量将糖网划分为4级。通过对国际公共数据集MESSIDOR进行糖网分级评估实验,所提方法获得平均准确率为90.2%,与经典的半监督学习的Co-training方法相比提高了4.9个百分点。实验结果表明,CS-SemiBagging方法在无需提供病灶标注的情况下,能够高效自动地对糖网进行分级,从而既能免除医学图像中标注病灶的费时费力,又可以避免样本类别分布不平衡对分类算法的性能影响,获得较好的效果。  相似文献   

19.
学习样本的质量和数量对于智能数据分类系统至关重要,但在数据分类系统中没有一个通用的良好方法用于发现有意义的样本。以此为动机,提出数据集合凸边界的概念,给出了快速发现有意义样本集合的方法。首先,利用箱型函数对学习样本集合中的异常和特征不全样本进行清洗;接着,提出数据锥的概念,对归一化的学习样本进行锥形分割;最后,对每个锥形样本子集进行中心化,以凸边界为基础提取距离凸边界差异极小的样本构成凸边界样本集合。实验在12个UCI数据集上进行,并与高斯朴素贝叶斯(GNB)、决策树(CART)、线性判别分析(LDA)、提升算法(AdaBoost)、随机森林(RF)和逻辑回归(LR)这六种经典的数据分类算法进行对比。结果表明,各个算法在凸边界样本集合的训练时间显著缩短,同时保持了分类性能。特别地,对包含噪声数据较多的数据集,如剖腹产、电网稳定性、汽车评估等数据集,凸边界样本集合能使分类性能得到提升。为了更好地评价凸边界样本集合的效率,以样本变化率和分类性能变化率的比值定义了样本清洗效率,并用该指标来客观评价凸边界样本的意义。清洗效率大于1时说明方法有效,且数值越高效果越好。在脉冲星数据集合上,所提方法对GNB算法的清洗效率超过68,说明所提方法性能优越。  相似文献   

20.
为解决k‐NN算法中固定k的选定问题,引入稀疏学习和重构技术用于最近邻分类,通过数据驱动(data‐driven)获得k值,不需人为设定。由于样本之间存在相关性,用训练样本重构所有测试样本,生成重构系数矩阵,用 l1‐范数稀疏重构系数矩阵,使每个测试样本用它邻域内最近的k (不定值)个训练样本来重构,解决k‐NN算法对每个待分类样本都用同一个k值进行分类造成的分类不准确问题。UCI数据集上的实验结果表明,在分类时,改良k‐NN算法比经典k‐NN算法效果要好。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号