共查询到20条相似文献,搜索用时 55 毫秒
1.
2.
针对含有复杂图案的纺织品瑕疵检测问题,提出基于畸变校正与视觉显著特征的纺织品瑕疵检测方法.首先,计算图像周期,获取最佳分块模板,根据模板对图像进行畸变校正.再对图像进行卡通纹理层分解,只保留具有图像主要特征的卡通层.然后,采用改进的上下文视觉显著性算法提取卡通层的显著性特征,分离具有高显著性特征的瑕疵与低显著性特征的背景.最后,采用K-means聚类算法突出显著图中的瑕疵,完成瑕疵检测.实验表明,文中方法对星型、箱型和点型图案纺织品的瑕疵检测的平均查全率较高,同时平均查全-查准效果也较优. 相似文献
3.
4.
运动目标检测是视频监控任务的基础问题之一,针对灰度信息,目标检测存在的阴影识别能力差、检测精度低等问题,提出在HSV颜色空间下基于低秩矩阵分解的运动目标检测算法.首先将获取的RGB图像转为HSV颜色空间分量,分别对H、S、V通道构建低秩观测量,进行低秩矩阵优化分解,分离出不同颜色通道的前景和背景分量;组合H、S、V通道分量的前景图像,得到粗略的运动目标区域;再采用HSV颜色阴影去除去除前景图像中的阴影;最后经噪声去除和空洞的填充,检测得到准确的前景运动目标.实验验证表明,与其它方法相比,能够有效地提高运动目标检测的准确度. 相似文献
5.
异常检测对于网络管理与安全至关重要.国内外大量研究提出了一系列网络异常检测方法,其中大多数方法更关注数据包及其独立时序数据流的分析、检测与告警,这类方法仅仅利用了网络数据之间的时间相关性,无法检测新类型的网络异常,且难以定位以及剔除异常数据.为了解决上述问题,相关研究融合多时间序列数据流,提出基于低秩分解的网络异常检测方法.该方法充分利用网络数据之间的时间-空间相关性,无监督地定位异常数据所在位置,同时将异常数据剔除,从而还原网络正常数据.首先,根据其对正常数据与异常数据的不同类型约束,将基于低秩分解的异常检测方法分为4类,并介绍每一类方法的基本思想和优缺点;然后,探讨现有基于低秩分解的异常检测方法存在的挑战;最后,对未来可能的发展趋势进行了展望. 相似文献
6.
提出一种基于模板匹配的单色布匹瑕疵检测算法,该检测算法首先存储待测布匹的无瑕疵模板图,并对模板图进行分块,然后对待测样本图进行相同的分块操作,进一步利用模板匹配方法对相同分块区域的样本图与模板图进行匹配查找,得到最优匹配图像.在匹配过程中,对模板图按照一定比例进行扩充,以提高匹配的准确性.最后将样本图与最优匹配图像进行差值对比实现布匹瑕疵检测.实验结果表明,算法弥补了传统Gabor算法高度依赖纹理的缺陷,提高了对于纹理模糊的单色布匹瑕疵检测准确率,检测效率与精度满足验布现场需求. 相似文献
7.
全文检索等应用要求对文本进行精细表示。针对传统主题模型只能挖掘文本的主题背景,无法对文本的侧重点进行精细描述的问题,提出一种低秩稀疏文本表示模型,将文本表示分为低秩和稀疏两部分,低秩部分代表主题背景,稀疏部分则是对主题中不同方面的关键词描述。为了实现文本低秩部分和稀疏部分的分解,定义了主题矩阵,并引入鲁棒性主成分分析(PCA)方法进行矩阵分解。在新闻语料数据集上的实验结果表明,模型复杂度比隐含狄利克雷分配(LDA)模型降低了25%。在实际应用中,将模型所得的低秩部分应用于文本分类,分类所需的特征减少了28.7%,能用于特征集的降维;将稀疏部分应用于全文检索,检索结果精确度比LDA模型提高了10.8%,有助于检索结果命中率的优化。 相似文献
8.
基于全卷积神经网络与低秩稀疏分解的显著性检测 总被引:1,自引:0,他引:1
为了准确检测复杂背景下的显著区域,提出一种全卷积神经网络与低秩稀疏分解相结合的显著性检测方法,将图像分解为代表背景的低秩矩阵和对应显著区域的稀疏噪声,结合利用全卷积神经网络学习得到的高层语义先验知识,检测图像中的显著区域.首先,对原图像进行超像素聚类,并提取每个超像素的颜色、纹理和边缘特征,据此构成特征矩阵;然后,在MSRA数据库中,基于梯度下降法学习得到特征变换矩阵,利用全卷积神经网络学习得到高层语义先验知识;接着,利用特征变换矩阵和高层语义先验知识矩阵对特征矩阵进行变换;最后,利用鲁棒主成分分析算法对变换后的矩阵进行低秩稀疏分解,并根据分解得到的稀疏噪声计算显著图.在公开数据集上进行实验验证,并与当前流行的方法进行对比,实验结果表明,本文方法能够准确地检测感兴趣区域,是一种有效的自然图像目标检测与分割的预处理方法. 相似文献
9.
近年来,基于矩阵低秩表示模型的图像显著性目标检测受到了广泛关注。在传统模型中通常对秩最小化问题进行凸松弛,即引入最小化核范数将原始输入图像分解为低秩矩阵和稀疏矩阵。但是,这种方法在每次迭代中必须执行矩阵奇异值分解(SVD),计算复杂度较高。为此,本文提出了一种低秩矩阵双因子分解和结构化稀疏矩阵分解联合优化模型,并应用于显著性目标检测。算法不仅利用低秩矩阵双因子分解和交替方向法(ADM)来降低时间开销,而且引入分层稀疏正则化刻画稀疏矩阵中元素之间的空间关系。此外,所提算法能够无缝集成高层先验知识指导矩阵分解过程。实验结果表明,提出模型和算法的检测性能优于当前主流无监督显著性目标检测算法,且具有较低的时间复杂度。 相似文献
10.
运动目标检测旨在分离视频的背景与前景,然而常用的低秩因子分解法往往难以综合地处理动态背景和间歇性运动的问题。考虑到背景减除后的偏态噪声分布具有潜在的背景修正作用,提出一种基于可靠性低秩因子分解和泛化差异性差分的运动目标检测模型。首先,利用时间维度像素分布的峰值位置以及偏态分布性质选取一个不含离群像素的子序列,并计算该子序列的中值以形成静态背景;其次,利用非对称拉普拉斯分布对静态背景减除后的噪声建模,并把基于空间平滑的建模结果作为可靠性权重参与到低秩因子分解中,以此建模综合背景(含有动态背景);最后,依次利用时间和空间连续约束提取前景。其中,针对时间连续性,提出了泛化差异性差分约束,从而通过相邻视频帧的差异信息抑制前景边缘的扩增。实验结果表明,与PCP、DECOLOR、LSD、TVRPCA、E-LSD、GSTO六种模型相比,所提模型的F-measure值最高。由此可知,所提模型在动态背景、间歇性运动等复杂场景中能有效提高前景的检测精度。 相似文献
11.
针对含有周期变化图案的纺织品瑕疵检测,提出基于相似关系的纺织品瑕疵检测方法.首先确定图案的周期模板大小,然后利用等价类划分方法,针对按照周期大小分块的图像进行区块间的聚类,完成瑕疵区块的定位.将区块之间的相似关系转化为等价关系,并提出阈值分割策略.在此基础上,加入基于邻域信息的瑕疵检测方法完成检测流程.实验表明,文中方法明显提高检测效率,同时检测过程简便,容易实现. 相似文献
12.
当布匹的背景信息复杂多变时,复杂花色布匹的瑕疵定位与分类较为困难.针对这一问题,文中提出基于级联卷积神经网络的复杂花色布匹瑕疵检测算法.首先,使用双路残差的骨干特征提取网络,在缺陷图和模板图上提取并融合特征.然后,设计密度聚类边框生产器,指导框架中区域候选网络的预检测框设计.最后,通过级联回归方法完成瑕疵的精确定位和分类.采用工业现场采集的布匹图像数据进行训练与预测,结果表明,文中算法的精准率和召回率较高. 相似文献
13.
杨海亮 《计算机测量与控制》2018,26(5):177-180
近年来,图像恢复逐渐成为数字图像处理领域的研究焦点,为了有效地对受损的、丢失了的图像数据进行恢复,采用张量数据结构的形式来表示待恢复的图像数据,并且提出了一种基于张量的图像恢复方法,通过充分识别清洁图像中混合噪声的内在结构。具体来说,对于干净的图像内容,使用张量Tucker分解来描述所有频带之间的全局相关性,以及各向异性空间光谱总变化(SSTV)正则化,以表征空间和频域中的分段平滑结构。对于混合噪声的图像内容,采用正则化来检测稀疏噪声,包括条纹,脉冲噪声和死像素,开发了一种用于通过使用增强拉格朗日乘数(ALM)方法来求解所得优化问题的有效算法。最后,对模拟和现实生活中有噪声的图像进行了广泛的实验,结果表明,算法工作良好,收敛快,可使受损图像恢复到一个良好的状态,恢复精度高。 相似文献
14.
提出一种核矩阵低秩近似分解方法。首先针对传统核矩阵分解列与类别独立的假设,研究列之间的关系,结合类别设计核矩阵的列选取策略。在此基础上,将核矩阵的分解分为两个阶段,与传统分解算法只考虑对角元素占优不同,利用核矩阵列之间以及列与类别之间的关系获取的Cholesky因子进行分解,并将其基向量扩展到整个空间。最后给出近似误差界的期望值。该算法不需要列之间或列与类别独立的假设,将列与类别关联,能提取有判别能力的子矩阵,并避免对核矩阵整体进行特征值分解运算,有效降低计算量。多个数据集的实验和分析验证该算法的合理性和有效性。 相似文献
15.
针对复杂的含有周期变化图案的纺织品瑕疵检测,提出改进Markov随机场模型的无监督纺织品瑕疵检测方法.应用随机场实现周期性纺织品图像的瑕疵检测,利用Markov邻域特性,综合判断瑕疵区域.结合周期图像分割,确定Markov随机场最小图像块计算单元,降低算法的计算复杂度.在随机场势函数定义中,综合考虑相邻图像块的差异特性,结合Markov随机场的全局性判断瑕疵点的位置.引入模糊相似关系矩阵概念,求解改进后的模型参数,使所有图像块的局部能量达到最优.实验表明,文中方法对样本的查全率较高. 相似文献
16.
17.
侯海燕 《电脑与微电子技术》2013,(20):63-65
针对流水线产品的自动检测需求的不断提升,使用模板匹配算法实现智能话机检测设备.并进行软件仿真,该系统用于检测话机按键的错装、漏装以及字符印刷错误等问题,实时获取产品图像和检测产品,可视化效果好。 相似文献
18.
19.