共查询到16条相似文献,搜索用时 93 毫秒
1.
2.
针对织物纹理花型人工视觉分类效率低的问题,提出一种基于深度卷积神经网络(CNN)的条状、格子和波点纹理织物的识别分类方法.首先,建立由条状花型、格子花型和波点花型织物组成的图像样本集和标签数据集.然后,分别建立了基于GoogLeNet和AlexNet两种卷积神经网络的织物花型分类模型.最后,通过模型评价指标选择最优的训练迭代期.实验结果表明,利用深度卷积神经网络分类织物花型是可行有效的. 相似文献
3.
4.
针对目前市场上机织物密度主要依靠人工检测以及利用图像测量结果准确率不高的现状,提出了一种基于图像灰度曲线特征值的机织物密度测量方法.获取织物图像后,利用Radon变换对其倾斜矫正,作出织物图像灰度曲线,曲线波峰数目对应纱线根数.为了在波峰数统计时过滤掉杂质小波峰,分别以曲峰峰值和位置的分布特点为依据,设定统计限制参数,找出更优的统计方法,实现机织物的密度测量.结果表明:以波峰位置为依据设置限制参数时,测得密度的稳定性与准确性最高,误差均能保持在2%以内,可以满足实际生产需要. 相似文献
5.
基于图像处理的机织物密度的高精度识别 总被引:3,自引:1,他引:2
通过对机织物图像和扫描仪精度的探讨,选择用扫描仪垂直扫描得到高分辨率的机织物表面反射图像,并提出采用特定的图像尺寸对织物图像进行处理。利用纱线间隙定位法对织物图像进行纠偏预处理。在处理后织物图像的亮度投影曲线中,通过区域排查的方法确定纱线间隙的位置。再对纱线间隙的距离依次检查,得到纱线间隙距离的准确平均值,最终得到织物的密度。实验证明,所得结果最高误差为0.07%,准确度较高。 相似文献
6.
针对大多数评价织物缝纫平整度等级方法对实验条件均有较高的要求,且织物种类及环境等因素对实验结果均有较大影响的现状,提出利用卷积神经网络分析织物缝纫平整度等级的方法,以提高等级分类的准确率和效率。设计了一个基于残差卷积神经网络的织物缝纫平整度客观评价模型,该模型以1000个普通织物的缝纫图像作为训练样本输入,得到缝纫平整度的分类结果,所选织物包含10种常见服装面料品类(塔夫绸、塔斯隆、雪纺、顺纡绉、尼丝纺、麂皮绒、天丝斜纹、真丝缎面、平布、交织绸)。研究结果表明:经200个测试集样本的验证,该模型的评价准确率达96%,与智能化评价以及建立预测模型方法相比,利用卷积神经网络分析织物缝纫平整度等级的方法,具有较好的准确率,且具备获取样本图像流程简单、效率高的优势。 相似文献
7.
应用深度卷积神经网络的色织物缺陷检测 总被引:3,自引:0,他引:3
针对织物缺陷检测时传统人工的误检率、漏检率较高问题,提出一种应用深度卷积神经网络的色织物缺陷检测算法。因织物图像采集过程中含有较多噪声且信噪比较低,先对缺陷织物进行最优尺寸高斯滤波,有效滤除细节噪声;再根据织物图像特征建立深度卷积神经网络,利用径向基神经网络的非线性映射能力作用于卷积神经网络,并通过反向传播算法调整权值参数,获取无缺陷样本与训练样本之间的映射函数;最后,利用映射函数及特征字典重构图像并提取特征,根据Meanshift算法分割缺陷,确定缺陷位置。结果表明:应用深度卷积神经网络的缺陷检测算法对色织物图像库中的缺陷图像可实现提高检测效率、缩短检测时间,获取准确缺陷位置的目的。 相似文献
9.
10.
为实现织物图像的快速自动识别与检索,从织物图像浅层视觉特征提取、深度语义特征学习以及检索模型构建3个方面综述了该领域的研究进展,分析了现有研究中存在的问题。发现织物图像浅层视觉特征在小样本数据集的检索中具有较好的适用性,且多特征融合应用可有效提升检索精度,但在大样本数据集及高层语义识别检索问题中的应用存在局限性,深度卷积神经网络是克服这一问题的有效途径;织物语义属性的优化设计、卷积神经网络结构优化以及距离尺度学习是目前提升深度检索模型语义识别精度的3个有效途径;认为未来织物图像识别检索精度的提升主要依赖于标准化的语义系统设计、精准的图像分割与识别技术以及多模态的信息融合检索。 相似文献
11.
12.
为探讨纺织品表观质量的客观、智能评定方法,使用不同密度的机织物图像,采用子窗口样本获取方式作为学习样本,以离散余弦字典作为初始学习字典,选择基于最小二乘的字典学习算法求解用于表征织物纹理图像的字典,再通过字典元素的线性组合对织物图像进行重构。以均方误差为指标,首先讨论织物图像灰度值分布对字典学习算法重构误差的影响,然后对图像灰度值进行标准化处理,在此基础上探讨织物经纬密度对重构图像误差的影响。实验结果发现,当字典个数等于9时,织物密度在150 ~ 360根/10 cm之间,随着织物密度的增加,平纹重构图像的均方误差先变大,以后不再增加,而斜纹重构图像的均方误差增大。 相似文献
13.
目的 探究一种基于Inception_V3-CNN模型的食品图像识别和分类方法。方法 选取包含20类食品和19609张的食品图像建立数据集Food-101, 通过卷积神经网络(convolutional neural networks, CNN)提取图像候选区域的视觉特征, 并自动进行分类, 使其具有较高的识别率; 此外, 采集来自kaggle库中已标注的食品图像集做预测对比实验, 以保证Inception_V3-CNN模型检测的准确度。结果 该方法能够去除背景噪音, 且仅需部分提取视觉特征, 可以有效解决网络食品图像的分类问题, 与多视图支持向量机(support vector machine, SVM)+方向梯度直方图(histogram of oriented gradients, HOG)和传统CNN方法相比, 在测试时间相近、设备计算能力相同的条件下, 该方法识别率更高, 迭代次数为15000次时, Loss值降至4.92, 准确率可达93.89%。结论 此方法可以快速识别食品图像, 在实际网络图片中能有较好的可移植性。将算法移植到移动设备中实现APP的模块化操作也将成为后续工作探索的重点方向。 相似文献
14.
15.