首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
针对传统机器学习方法检测织物疵点精度低,小目标检测较困难的问题,提出一种基于改进YOLOv5的织物疵点的目标检测算法。在YOLOv5模型的Backbone模块中分别引入SE注意力机制和CBAM注意力机制,使模型聚焦于图像中的关键信息,改进传统YOLOv5网络检测精度不高的问题。结果表明:改进后的模型具有更好的检测性能,其中引入CBAM模块后提升幅度最明显,较原网络mAP值提升了7.7%,基本满足织物疵点检测需求。  相似文献   

2.
鉴于织物表面纹理复杂导致织物缺陷检测准确率低以及小目标检测困难等问题,提出一种基于改进YOLOv5的织物缺陷检测算法。首先,在YOLOv5的骨干网络上,增加CBAM注意力机制,从而强化有用的特征信息弱化无用的特征信息;其次,将Neck层的路径聚合网络(PANet)用加权双向特征金字塔网络(Bi-FPN)替换,从而更好地平衡多尺度特征信息,提高小目标检测的特征能力。最后,通过改进损失函数,使用Focal EIOU Loss损失函数来代替CIOU Loss损失函数,不仅使得收敛速度更快,而且可以有效的解决难易样本不平衡问题。实践证明:改进后的训练模型平均精度均值mAP值为84.5%,比未改进增加了4.7%,可满足实际生产中的织物缺陷检测要求。  相似文献   

3.
陈金广  李雪  邵景峰  马丽丽 《纺织学报》2022,43(10):155-160
为进一步降低基于深度学习的服装目标检测模型对计算资源的占用,提出一种改进的轻量级服装目标检测方法MV3L-YOLOv5。首先使用移动网络MobileNetV3_Large构造YOLOv5的主干网络;然后在训练阶段使用标签平滑策略,以增强模型泛化能力;最后使用数据增强技术弥补DeepFashion2数据集中不同服装类别图像数量不均衡问题。实验结果表明:MV3L-YOLOv5的模型体积为10.27 MB,浮点型计算量为10.2×109次,平均精度均值为76.6%。与YOLOv5系列最轻量的YOLOv5s网络相比,模型体积压缩了26.4%,浮点型计算量减少了39%,同时平均精度均值提高了1.3%。改进后的算法在服装图像的目标检测方面效果有所提升,且模型更加轻量,适合部署在资源有限的设备中。  相似文献   

4.
针对目前肉眼检测服装缝线疵点效率低下、成本较高、准确率不高、容易出现漏检和误检等问题,文章利用深度学习的方式对服装缝线疵点进行实时检测,构建了一个服装缝线疵点检测的数据集,包含了常见的服装缝线疵点类型,提出了一种基于注意力机制的YOLOv7算法SK-YOLOv7,在YOLOv7的骨干网络添加3个SK模块,以增强主干网络的特征提取能力,并引入CBAM-YOLOv7和SE-YOLOv7算法进行对比实验。实验结果表明:SK-YOLOv7具有较高的查准率及查全率,平均检测精度也有所提高。SK-YOLOv7相较于CBAM-YOLOv7和SE-YOLOv7在缝线检测上表现更好。文章对数据集采用不同的标记方式进行对比测试,发现对疵点区域进行一次标记的方法会导致特征大量丢失,而对疵点区域内进行分块标记的方法表现出了更好的检测效果。综合实验结果得出,基于注意力机制改进的YOLOv7服装缝线疵点检测方法是可行的,可以较好地推动纺织服装检测行业的发展进步。  相似文献   

5.
碎米检测是评估大米品质的重要环节,传统的碎米检测是由人工挑选完成的,这种方式耗时费力,误差率高,而且公开可用的碎米检测数据集并不多。为解决该问题,本文创建了一个大米碎米数据集,该数据集共由2435张图片和对应标签文件组成,其中包含3种类别;并提出了一个改进的YOLOv5碎米检测模型,该模型引入ShuffleNetv2轻量化结构作为特征提取结构,大大减少了模型的参数量,在此基础上,引入了BiFPN结构作为特征融合结构,使用α_IoU作为回归框损失对损失函数进行改进。实验表明,改进之后的模型精度可达98.9%,比原YOLOv5高0.3%,参数量和计算量也比原模型减少了85%以上,其中精度相比于YOLOv3、SSD、RestinaNet、FasterRCNN分别高了0.4%、33.3%、27.9%、27.2%。相关数据集将在https://github.com/THFrag/broken-rice-detection上提供。  相似文献   

6.
为了实现织物疵点的自动检测与分类,提出了一种基于改进RefineDet的疵点检测方法。首先,将VGG16改为全卷积网络对织物图像特征进行提取;其次,为了获取疵点重要的特征并抑制不必要的特征,在Anchor细化模块(Anchor refinement module, ARM)中加入了注意力机制;为了提高网络的分类性能,在传输连接块(Transfer connection block, TCB)中加入了SE模块(Squeeze and excitation, SE);最后,目标检测模块(Object detection module, ODM)将检测的结果回归到准确的目标位置,并预测疵点的类别,对疵点进行定位。结果表明:本文算法对孔、污渍、纱疵和线状4种类别织物图像的均值平均精度mAP达到了79.7%,比传统RefineDet检测方法均值平均精度提高了5.0%,具有良好的分类和定位效果。  相似文献   

7.
为提高织物疵点检测精度和效率,提出了一种基于深度信念网络的织物疵点检测方法。用改进的受限玻尔兹曼机模型对深度信念网络进行训练,完成模型识别参数的构建。利用同态滤波方法对图像进行预处理,使疵点图像更加清晰,同时抑制了背景图像。以Python语言,基于TensorFlow框架构建深度信念网络模型,对织物疵点图像进行处理得到学习样本,确定模型激活函数后,分析了各模型参数对织物疵点检测准确率的影响规律,得到激活函数为Relu, Dropout值为0.3,预训练学习率为0.1,微调学习率为0.000 1,批训练个数为64时,模型参数值达到最优。最后,利用在无缝内衣机上采集到的各类疵点图像,对深度信念网络织物疵点检测模型进行验证。结果表明:所提出的织物疵点检测方法能够快速、有效地对织物疵点进行检测和分类识别,准确率达到98%。  相似文献   

8.
李宇  刘孔玲  黄湳菥 《毛纺科技》2021,49(4):98-103
为快速、准确检测布匹疵点,提出以深度学习目标检测框架YOLOv4为基础的布匹疵点检测方式,首先将5种常见疵点图像(吊经、百脚、结点、破洞、污渍)进行预处理,然后将图像输入到YOLOv4算法中进行分类。YOLOv4采用CSPDarknet53作为主干网络提取疵点特征,SPP模块、FPN+PAN的方式作为Neck层进行深层疵点特征提取,预测层采用3种尺度预测方式,对不同大小的疵点进行检测。研究结果表明:经600个测试集样本的验证,该方法对疵点图像的检测准确率达95%,检测单张疵点图像的速率为33 ms。与SSD、Faster R-CNN、YOLOv3方法进行比较,采用YOLOv4方法准确率更高,速度更快。  相似文献   

9.
针对织物瑕疵中部分瑕疵目标小、长宽比极端等问题,提出一种基于改进YOLOv5的织物瑕疵检测方法。该方法在YOLOv5模型基础上引入自注意力机制CoTNet网络,并将颈部网络中的PAFPN网络优化为BiFPN网络,同时将目标损失函数改进为CIoU损失函数,加强模型对邻近键以及上下文之间特征信息的收集,在增强模型对小目标和尺寸变化大类型瑕疵检测能力的同时可获得更准确的边界框回归,加快收敛速度。实验证明,本文改进的模型在织物瑕疵检测数据集上的检测效果和YOLOv5模型相比平均精度均值提升了6.8%,准确率提升了6.7%,模型验证有效。  相似文献   

10.
王斌  李敏  雷承霖  何儒汉 《纺织学报》2023,44(1):219-227
为提高疵点检测的准确性和通用性,实现使用简洁而有效的形式对织物图像的特点和疵点的本质特征进行综合表达,首先,介绍了深度学习技术,对引入了深度学习的疵点检测方法进行综述,同时对深度学习与疵点检测的内在关系进行阐述;然后,分析总结了深度学习的概念及代表性的计算模型,并对引入深度学习的疵点检测方法进行归纳、总结和分类;最后,对典型的方法进行了分析,讨论了各种方法的优缺点,并对未来的研究趋势进行了展望。指出:随着深度学习的发展,探索更加通用的检测方法是推进深度学习在织物疵点检测领域应用的努力方向。  相似文献   

11.
基于尺度变换的Gabor滤波器织物疵点检测   总被引:1,自引:0,他引:1  
陈树越  冯军 《纺织学报》2010,31(9):38-41
针对织物表面疵点自动图像检测问题,提出一种基于尺度变换的Gabor滤波器织物疵点提取方法,该方法使Gabor滤波函数的比例伸缩尺度随中心频率而变化。用Gabor尺度变换的3个尺度和4个方向的滤波器组分别与正常和待识别的疵点织物图像进行卷积,提取正常与异常织物纹理特征,从而得到偏差图像。再对偏差图像进行融合,使织物疵点突显出来。最后通过阈值处理检测出织物疵点。对缺经、缺纬、经纬交错和油污4种常见织物缺陷的实验结果表明,这种方法是有效的。  相似文献   

12.
对基于计算机视觉的织物疵点检测技术进行回顾,介绍了灰度共生矩阵法,局部二值模式算法,邻域关联分析,自组织映射,支持向量机,学习向量量化分类器,多分类器组合和决策融合等算法等在图像预处理,特征提取、分类和识别等方面的应用情况,着重讨论了一种基于多数投票原则的多分类器决策融合技术,试验结果证实该技术有较高精确性.  相似文献   

13.
为克服人工疵点检测存在精度差、效率低、易疲劳等问题,研发了基于改进Itti显著模型的织物疵点实时检测系统。首先设计了专用的织物传动和退绕系统,实现对布卷的精确传递,采用不同光源和多台工业相机拍摄实现织物的实时采集;然后通过基于改进的Itti显著性模型对图像进行快速检测,利用下采样构建图像金字塔,并对金字塔图像进行中央周边差操作,获得织物亮度特征;接着对各尺度金字塔图像进行不同方向Gabor滤波边缘检测获得织物方向特征,归一化亮度与方向特征获得织物疵点显著图;最后通过自定义阈值对显著图进行分割。实验结果表明:本文系统能有效检测出白坯布、牛仔布含有的油污、断经、破洞、纬缩等常见织物疵点,疵点检测正检率为93%,实时检测速度最高达48 m/min,能满足实时检测需求。  相似文献   

14.
传统工业建材计数工作一直由人工完成,手工计数方法易受到统计人员的状态影响,无法满足现代化建筑快速工业需求。为解决这一难题,该文提出一种基于YOLOv5的钢材图像计数算法。首先,对钢材技术问题进行分析,明确任务重点难点及工业部署硬件设备需求;同时,根据钢材数据特性搭建YOLO目标检测网络,对钢材数据进行预处理以保证目标特征表达;最后,对模型性能进行测试验证。实验结果表明,该文算法平均检测精度可达98.7%以上,模型准确率可达98.9%,较好完成钢材计数检测任务,且具有一定鲁棒性。  相似文献   

15.
提出了一种基于Frangi滤波器的织物疵点检测方法。该算法首先对样本织物图像进行均值下采样处理,淡化和消除背景纹理对织物疵点检测的影响,然后将均值下采样处理后的图像经Frangi滤波器进行滤波,从而增强织物疵点部分以利于疵点的分割,最后对Frangi滤波后的图像进行阈值分割,分割出织物疵点部分。采用该算法对6种纹理织物进行处理,检测出26种疵点,92%的疵点能被准确的检测和定位,误报率为8%,检测效果较好。  相似文献   

16.
对织物表面疵点自动识别方法进行了探讨.将信息熵引入图像处理中,先通过最大熵快速迭代算法对织物疵点区域进行分割,把疵点图像分为背景和目标两部分;然后找出疵点区域的中心并求出疵点区域在纬向和经向上的方差;最后通过两者的比值与设定常数的比较,判断出疵点类型.仿真实验表明该方法对常见织物疵点的检测是有效的.  相似文献   

17.
为提高稀疏表示方法对织物疵点的检测精度,提出了基于稀疏优化的织物疵点检测算法。首先,利用L1范数最小化从待检织物图像中学习出自适应字典库,用该库对织物图像稀疏表示,进而计算出稀疏表示系数矩阵;然后,对系数矩阵进行优化处理,采用字典库及优化系数矩阵对织物图像稀疏重构;最后,将重构图像与待检织物图像相减生成残差图像,用最大熵阈值方法对残差图像分割,定位出疵点区域。实验结果表明,本文算法所重构图像准确表示了正常织物纹理,相比已有检测方法具有较高的疵点检测精度。  相似文献   

18.
【背景和目的】烟叶成熟度的准确判定和适时采收是提高烟叶质量的关键,为提高烟叶成熟度判定的准确性。【方法】以翠碧一号(CB-1)的鲜烟叶为研究对象,采用手机拍摄上、中、下3个部位5个成熟度(M1~M5)烟叶图像,利用labelimg软件从原始的图像中获取目标烟叶图像二维坐标信息,通过轻量级网络You Only Look Once(YOLO)v5进行数据训练,构建烟叶5个成熟度识别模型。【结果】CB-1的上、中、下3个部位模型中的m AP值均达到0.9以上,平均准确率分别为93.6%,92.8%,95.2%。进一步将模型部署到云服务器、并配套开发了基于Android端的烟草成熟度智能识别应用程序,实现在大田环境下响应式的鲜烟叶成熟度等级判断。【结论】基于YOLOv5模型的智能识熟APP可有效、准确地判定鲜烟叶成熟度。本研究结果可为鲜烟叶成熟度的智能识别提供理论基础和技术支撑。  相似文献   

19.
阐述了一阶、二阶微分,Canny和基于小波等多种图像边缘检测方法,并对织物疵点图像进行了边缘检测,分析了各种方法在图像边缘检测应用中的优势和缺陷,结果表明,Canny和小波检测算法对织物疵点图像的边缘检测能够得到满意的效果,提供了较好的织物疵点边缘检测的途径。  相似文献   

20.
在织物疵点自动检测开发中,传统的图像处理代码编写繁琐、效率不高.OpenCV具有较强的图像处理能力且提供了丰富的图像处理函数,可以把OpenCV运用到织物疵点检测上.以断经、纬疵样本为例,提出在OpenCV环境下采用阈值分割提取疵点图像,利用形态学技术实现噪点分离及断线连接.边缘检测实现了疵点图像在原图像中的准确定位.实验结果表明,OpenCV有简化代码、提高编程效率的图像处理强大功能,疵点检测结果准确,效率高.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号