首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对传统机器学习方法检测织物疵点精度低,小目标检测较困难的问题,提出一种基于改进YOLOv5的织物疵点的目标检测算法。在YOLOv5模型的Backbone模块中分别引入SE注意力机制和CBAM注意力机制,使模型聚焦于图像中的关键信息,改进传统YOLOv5网络检测精度不高的问题。结果表明:改进后的模型具有更好的检测性能,其中引入CBAM模块后提升幅度最明显,较原网络mAP值提升了7.7%,基本满足织物疵点检测需求。  相似文献   

2.
李宇  刘孔玲  黄湳菥 《毛纺科技》2021,49(4):98-103
为快速、准确检测布匹疵点,提出以深度学习目标检测框架YOLOv4为基础的布匹疵点检测方式,首先将5种常见疵点图像(吊经、百脚、结点、破洞、污渍)进行预处理,然后将图像输入到YOLOv4算法中进行分类。YOLOv4采用CSPDarknet53作为主干网络提取疵点特征,SPP模块、FPN+PAN的方式作为Neck层进行深层疵点特征提取,预测层采用3种尺度预测方式,对不同大小的疵点进行检测。研究结果表明:经600个测试集样本的验证,该方法对疵点图像的检测准确率达95%,检测单张疵点图像的速率为33 ms。与SSD、Faster R-CNN、YOLOv3方法进行比较,采用YOLOv4方法准确率更高,速度更快。  相似文献   

3.
针对织物疵点语义分割任务中数据分类不均衡导致疵点检测准确率不高的问题,文章在Resnet、U-net网络结构基础上设计了CS model网络,添加了适用于小疵点及条带状疵点特征检测的MSCA注意力机制。织物图像中,破洞、污渍等织物疵点像素,占比较少,相比于全图像素为小类别疵点,导致分割结果不准确。针对小类别疵点分割准确率不高的问题,将多类别Focal Loss损失函数引入于其中,该损失函数通过提高小类别疵点的权值,使分割结果更为准确。调整Focal Loss参数对比实验结果,采用mIoU、Acc和Loss数值作为实验评价指标,分别与U-Net、ResNet50、DeepLabV3和VGG16网络的语义分割模型进行对比实验,结果表明:提出的CS model网络可将小类别疵点分割精度有效提高几个百分点。  相似文献   

4.
针对大米在外观品质中需要快速识别需求,提出了一种基于改进YOLOv5s网络的大米外观品质识别模型(CG-YOLOv5)。为提高大米的识别率,文本增加了小目标检测层。其次,为使模型轻量化,用Ghost模块代替YOLOv5s的骨干网络。为进一步提升模型的性能,通过试验研究了不同的注意力机制对模型性能的影响,最终选取CBAM注意力机制加入到YOLOv5s网络中。为直观CBAM注意力机制的效果,对大米图像进行了特征图可视化。试验结果表明修改后的网络的mAP达到了96.5%,相比YOLOv5s网络提升了4.3个百分点。在相同数据集下,与8种主流的检测网络进行对比,并在不同光照情况下的试验结果表明,该方法的检测mAP和检测时间皆优于其它8种检测网络;在检测时间上,该方法的平均检测时间为41ms,相较于YOLOv3快119ms,相较于YOLOv4-tiny快35ms。该方法具有优异的检测精度以及良好的鲁棒性和实时性,可以用于大米品质检测中。  相似文献   

5.
针对轻量级模型在检测织物疵点时精确率低的问题,在YOLOv5n的基础上提出一种上下文增强与混合感受野的织物疵点检测算法。首先,为主干网络设计了一种轻量扩张卷积空间金字塔模块,并将主干网络的下采样比增加至64,在增强上下文信息的同时提取更深层的语义信息,提高模型识别性能;其次,为颈部网络设计了一种混合感受野融合模块代替原C3模块并进行特征融合,提高极端长宽比目标的检测精度。实验表明:该算法在基于天池织物数据集上的IOU阈值为0.5时的平均精度均值mAP50、精确率、召回率分别达到了93.1%、91.6%、89.1%,相较于原YOLOv5n算法分别提高了4.9%、7.3%、5.0%,且模型文件大小仅6.28 MB,更适用于织物疵点检测领域。  相似文献   

6.
付晗  胡峰  龚杰  余联庆 《纺织学报》2023,(7):103-109
为解决复杂图案织物疵点检测精度不足的问题,通过将疵点视为对织物纹理的破坏,利用生成对抗神经网络对疵点图像进行重构,使其恢复成正常织物纹理的图像,然后将重构图像与缺陷图像进行求异计算,对求异结果进行图像分割,实现疵点检测目的。同时引入自注意力机制、L1损失函数和改进的结构损失函数用于改进生成对抗神经网络结构及其损失函数,用以分析并解决疵点图像重构精度差和网络处理图像细节能力的不足。最后采用本文方法与无监督缺陷检测算法(ReNet-D)和SDDM-PS 2种方法对5种不同复杂图案织物疵点进行实验对比,结果表明本文方法检测精度更高。  相似文献   

7.
不同服装部件的细分可使设计师更好地开发时尚新品,同时有助于消费者更好地理解设计概念。当前,服装图像分割的主流方法多基于深度卷积神经网络(Deep Convolution Neural Network,DCNN),但受制于感受野的大小限制,DCNN无法捕获全局依赖性。有鉴于此,文章在Mask-RCNN的基础上,提出了一种基于非局部注意力机制的双分支多重注意力网络(Multiple Attention Mask-RCNN,MA-Mask-RCNN),分别用于提取位置注意力和渠道注意力。经过特征融合后,将特征金字塔网络(Feature Pyramid Network,FPN)模块和多重注意力模块并联,将该分割网络在Imaterialist-fashion(2019)数据集上训练,并与基准网络的表现进行对比,证明了所提出的MA-Mask-RCNN(Multiple Attention Mask-RCNN)是一种可有效进行服装细粒度实例分割的神经网络。  相似文献   

8.
陈金广  李雪  邵景峰  马丽丽 《纺织学报》2022,43(10):155-160
为进一步降低基于深度学习的服装目标检测模型对计算资源的占用,提出一种改进的轻量级服装目标检测方法MV3L-YOLOv5。首先使用移动网络MobileNetV3_Large构造YOLOv5的主干网络;然后在训练阶段使用标签平滑策略,以增强模型泛化能力;最后使用数据增强技术弥补DeepFashion2数据集中不同服装类别图像数量不均衡问题。实验结果表明:MV3L-YOLOv5的模型体积为10.27 MB,浮点型计算量为10.2×109次,平均精度均值为76.6%。与YOLOv5系列最轻量的YOLOv5s网络相比,模型体积压缩了26.4%,浮点型计算量减少了39%,同时平均精度均值提高了1.3%。改进后的算法在服装图像的目标检测方面效果有所提升,且模型更加轻量,适合部署在资源有限的设备中。  相似文献   

9.
针对织物瑕疵中部分瑕疵目标小、长宽比极端等问题,提出一种基于改进YOLOv5的织物瑕疵检测方法。该方法在YOLOv5模型基础上引入自注意力机制CoTNet网络,并将颈部网络中的PAFPN网络优化为BiFPN网络,同时将目标损失函数改进为CIoU损失函数,加强模型对邻近键以及上下文之间特征信息的收集,在增强模型对小目标和尺寸变化大类型瑕疵检测能力的同时可获得更准确的边界框回归,加快收敛速度。实验证明,本文改进的模型在织物瑕疵检测数据集上的检测效果和YOLOv5模型相比平均精度均值提升了6.8%,准确率提升了6.7%,模型验证有效。  相似文献   

10.
目的:实现咖啡豆瑕疵检测。方法:提出一种基于改进YOLOv5s网络,以YOLOv5s为基线网络嵌入并优选不同的注意力机制模块与激活函数。结果:使用CBAM模块与激活函数Hardswish的平均精度均值相比基线网络分别提高了5.3%和2.9%。经过200次迭代训练,模型准确率为99.5%,平均精度均值为97.6%,召回率为0.98,识别速率为64幅/s,模型大小为15 M。结论:相比于Faster RCNN、SSD、YOLOv3、YOLOv4、YOLOv5s,试验算法识别准确率更高,模型更加轻量化,对咖啡瑕疵豆的识别效果更好。  相似文献   

11.
植株数是用于监测作物生长状况和估测产量的重要田间表型性状。为实现烟草植株数高效自动清点,针对无人机遥感影像烟株检测中存在小尺寸聚集目标容易漏检的问题,提出了一种YOLOv7目标检测优化模型YOLOv7-Sim。首先引入Sim AM注意力机制增强图像特征之间的聚合能力;然后加入小目标检测层强化算法对小目标的检测能力;再对定位损失函数进行优化,引入了EIOU定位损失函数;最后利用分块策略解决大图像检测中小目标容易采样丢失的问题。在VisDrone2019数据集和本文构造的UAVTob无人机遥感影像烟草数据集上的检测结果显示,检测均值平均精确率mAP@0.5提升了0.3%和6.3%,mAP@0.5:0.95提升了0.6%和18.3%,YOLOv7-Sim算法对无人机遥感影像中的烟株检测更具优越性。  相似文献   

12.
基于迁移学习和改进ResNet50网络的织物疵点检测算法   总被引:1,自引:0,他引:1  
《毛纺科技》2021,49(2)
针对目前工业现场织物疵点检测准确率低、速度慢和疵点识别种类少的问题,提出一种改进ResNet50网络的织物疵点检测算法。首先对数据集进行预处理,对数据样本切割增强生成模型训练集,包括无疵点和8类常见疵点类别;然后改进ResNet50网络结构,提取在大型数据集ImageNet上预训练好的权重参数迁移学习;最后反复调整超参数训练得到的疵点检测识别模型。通过多组对比实验结果表明,改进模型对正常织物和8类常见疵点识别准确率达到96.32%,比标准模型精度提升4.2%,速度提升1倍。在不同织物疵点数据集中测试,综合性能最好,泛化能力强,鲁棒性好,可以满足工业生产现场织物疵点检测需求。  相似文献   

13.
为了实现织物疵点的自动检测与分类,提出了一种基于改进RefineDet的疵点检测方法。首先,将VGG16改为全卷积网络对织物图像特征进行提取;其次,为了获取疵点重要的特征并抑制不必要的特征,在Anchor细化模块(Anchor refinement module, ARM)中加入了注意力机制;为了提高网络的分类性能,在传输连接块(Transfer connection block, TCB)中加入了SE模块(Squeeze and excitation, SE);最后,目标检测模块(Object detection module, ODM)将检测的结果回归到准确的目标位置,并预测疵点的类别,对疵点进行定位。结果表明:本文算法对孔、污渍、纱疵和线状4种类别织物图像的均值平均精度mAP达到了79.7%,比传统RefineDet检测方法均值平均精度提高了5.0%,具有良好的分类和定位效果。  相似文献   

14.
为了提高纺织物疵点检测率,从纺织物纹理具有均匀性和周期性等特点出发,提出了基于分形的纺织物疵点检测方法,该方法利用滑动窗口思想计算图像的分形维数,并以此为依据采用OtSU算法对图像进行分割。实验结果显示该方法的分割精度较高,分割时间也能满足疵点检测的要求,是一种有效地疵点检测方法。  相似文献   

15.
陈钰枚  李兆飞  侯劲  赵俊 《中国造纸》2023,42(11):160-168
提出一种改进YOLOv7的纸张表面缺陷一步式检测算法。首先将注意力机制模块CBAM融合到主干和特征提取网络结构,从空间和通道2个维度提取信息,提升小目标纸病特征提取准确性和算法稳定性;将ASPP空洞卷积加入主干网络SPP中,ASPP可以进一步扩大感受野,使较小目标的特征信息在网络传递时得到保留,解决了小目标信息量不足的问题,进而提高小目标纸病识别的性能。通过自制纸病数据集检测实验,与YOLOv7相比,精确率、召回率及平均精确率均值mAP 0.5分别提升了1.5、2.3和2.1个百分点。  相似文献   

16.
本文提出了一种利用图像处理技术进行坯布疵点自动检测及评估的方法。该方法通过直方图分析,学习无疵点布的统计特征。设计合适的阈值,分割出深色和浅色疵点,并利用中值滤波去除杂点。应用连通区域标记算法标记疵点,提取疵点的中心坐标、均值、面积、长、宽等特征,并按照严重程度进行疵点评分。检测结果表明此疵点检测算法及评分方法的有效性。  相似文献   

17.
基于改进YOLOv5的纸病检测方法   总被引:1,自引:1,他引:0       下载免费PDF全文
张开生  关凯凯 《中国造纸》2022,41(10):79-86
针对传统纸病检测算法中纸病特征提取困难、实时性差的问题,提出一种改进YOLOv5的纸病检测方法。该方法首先在批量归一化模块的首尾部分添加居中和缩放校准,形成更稳定的纸病有效特征分布;其次在骨干网络中添加坐标注意力机制,增强骨干网络的纸病特征提取能力;最后选用 CIoU_loss作为边界框回归的损失函数,实现高精度的定位。实验结果表明,改进后的算法平均精度达99.02%,实时检测速度达41.58 帧/s,相较于现有的基于CNN纸病分类算法,检测精度与检测速度都有较大的提升,且改进后的算法对光源的依赖程度更低,能对各类纸病实现精准辨识。  相似文献   

18.
为实现机器人对皮革抓取点的精确定位,文章通过改进YOLOv5算法,引入coordinate attention注意力机制到Backbone层中,用Focal-EIOU Loss对CIOU Loss进行替换来设置不同梯度,从而实现了对皮革抓取点快速精准的识别和定位。利用目标边界框回归公式获取皮革抓点的定位坐标,经过坐标系转换获得待抓取点的三维坐标,采用Intel RealSense D435i深度相机对皮革抓取点进行定位实验。实验结果表明:与Faster R-CNN算法和原始YOLOv5算法对比,识别实验中改进YOLOv5算法的准确率分别提升了6.9%和2.63%,召回率分别提升了8.39%和2.63%,mAP分别提升了8.13%和0.21%;定位实验中改进YOLOv5算法的误差平均值分别下降了0.033 m和0.007 m,误差比平均值分别下降了2.233%和0.476%。  相似文献   

19.
设计了一种采用YOLOv4深度学习算法的小龙虾质量检测模型,该算法在网络架构、数据处理、特征提取等方面进行了优化。自主拍摄小龙虾图片并进行数据扩充,使用LableImage平台进行数据标注,在Darknet框架下进行网络模型训练,通过对比,模型最终性能均高于其他常见目标检测模型,其检测准确率达97.8%,平均检测时间为37 ms,表明该方法能够有效检测生产过程中的小龙虾质量。  相似文献   

20.
鉴于织物表面纹理复杂导致织物缺陷检测准确率低以及小目标检测困难等问题,提出一种基于改进YOLOv5的织物缺陷检测算法。首先,在YOLOv5的骨干网络上,增加CBAM注意力机制,从而强化有用的特征信息弱化无用的特征信息;其次,将Neck层的路径聚合网络(PANet)用加权双向特征金字塔网络(Bi-FPN)替换,从而更好地平衡多尺度特征信息,提高小目标检测的特征能力。最后,通过改进损失函数,使用Focal EIOU Loss损失函数来代替CIOU Loss损失函数,不仅使得收敛速度更快,而且可以有效的解决难易样本不平衡问题。实践证明:改进后的训练模型平均精度均值mAP值为84.5%,比未改进增加了4.7%,可满足实际生产中的织物缺陷检测要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号