首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
针对粘连蚕茧难以准确分割、现有双宫茧识别方法局限性等问题,本文提出了基于双参数阈值的蚕茧分割计数、蚕茧形状复原及双宫茧识别的串联算法。首先,应用可变分割阈值结合形态学运算的方法对图像进行分割计数,再遍历完成分割的每个蚕茧的像素点,应用基于边缘检测与椭圆拟合的蚕茧形状复原方法拟合蚕茧形状,然后计算蚕茧长短轴比值和面积参数,采用双参数多级阈值对双宫茧进行检测。实验结果显示,图像分割计数准确度为100%,双宫茧全部检出,双宫茧与单宫蚕茧分类准确率为98.6%。该方法检出了面积阈值法易漏检的小双宫茧,也较准确地识别出与长短轴比值阈值接近的蚕茧类型。  相似文献   

2.
为了解决卷纸包装过程中的缺陷检测问题,提高卷纸包装缺陷的检测速度和准确率,提出了一种改进的YOLOv3算法(iYOLOv3算法)。该算法通过将卷积神经网络和多头自注意力相结合,可更加充分地提取图片的局部和全局特征;并将不同尺度的特征图进行多尺度特征融合,同时改善了YOLOv3算法的解码公式,iYOLOv3算法的AP@50∶5∶95比YOLOv3算法提高了5.8个百分点,检测速度达到了80帧/s,是YOLOv3算法的2倍以上,表明了其在实际应用的可行性。  相似文献   

3.
蚕茧质量对蚕丝的品质具有重要影响,因此在缫丝前需要对蚕茧进行分类,但传统人工筛选法成本较高,效率和准确率均较低。为了提高蚕茧种类分类准确率,利用深度学习的方法在ResNet50的基础上做出改进并将其应用于蚕茧分类。首先以ResNet50作为主干网络提取蚕茧原图特征信息,然后使用非局部操作提取特征图的全局特征,进一步利用通道注意力机制提取全局特征图的通道特征,从而将全局语义特征和细节信息进行全局平均池化,并将全局平均池化得到的特征向量输入到Softmax分类器中进行分类。实验结果表明:融合通道注意力机制和非局部操作的蚕茧识别算法平均分类准确率达95.6%,比ResNet50网络模型高2.4%。  相似文献   

4.
顾梅花  刘杰  李立瑶  崔琳 《纺织学报》2022,43(11):163-171
针对小尺寸服装与遮挡服装图像分割准确率低的问题,提出一种基于改进多尺度特征学习策略与注意力机制的服装图像分割方法。以Mask R-CNN为基础框架,首先采用增强特征金字塔网络优化模型的特征学习过程,对多尺度服装特征进行统一监督,缩小不同层级之间的语义差距,引入残差特征增强模块减少高层特征损失,采用软感兴趣区域选择自适应地获取最优感兴趣区域特征;然后在分类预测分支引入通道注意力模块,在边界框回归与掩膜预测分支分别引入空间注意力模块,提取图像中需要重点关注的服装区域特征。结果表明,与其他方法相比,本文方法改善了小尺寸服装图像和遮挡服装图像分割中存在的漏检、漏分割现象,提取出的服装实例更精确,其平均精度均值比原模型提升了3.8%。  相似文献   

5.
为实现机器人对皮革抓取点的精确定位,文章通过改进YOLOv5算法,引入coordinate attention注意力机制到Backbone层中,用Focal-EIOU Loss对CIOU Loss进行替换来设置不同梯度,从而实现了对皮革抓取点快速精准的识别和定位。利用目标边界框回归公式获取皮革抓点的定位坐标,经过坐标系转换获得待抓取点的三维坐标,采用Intel RealSense D435i深度相机对皮革抓取点进行定位实验。实验结果表明:与Faster R-CNN算法和原始YOLOv5算法对比,识别实验中改进YOLOv5算法的准确率分别提升了6.9%和2.63%,召回率分别提升了8.39%和2.63%,mAP分别提升了8.13%和0.21%;定位实验中改进YOLOv5算法的误差平均值分别下降了0.033 m和0.007 m,误差比平均值分别下降了2.233%和0.476%。  相似文献   

6.
针对传统机器学习方法检测织物疵点精度低,小目标检测较困难的问题,提出一种基于改进YOLOv5的织物疵点的目标检测算法。在YOLOv5模型的Backbone模块中分别引入SE注意力机制和CBAM注意力机制,使模型聚焦于图像中的关键信息,改进传统YOLOv5网络检测精度不高的问题。结果表明:改进后的模型具有更好的检测性能,其中引入CBAM模块后提升幅度最明显,较原网络mAP值提升了7.7%,基本满足织物疵点检测需求。  相似文献   

7.
针对目前选茧时下茧检测主要依赖人工目测,工作效率低的问题,提出一种基于锚点框参数预置、通道剪枝和嵌入感受野模块改进的轻量化下茧实时检测模型。首先,通过K-means聚类分析出适用于下茧检测的锚点框以预置YOLOv3模型参数;然后,根据预设的剪枝率对稀疏化训练后的模型进行基于批量正则化层缩放因子的模型剪枝,以此压缩模型的大小;最后,在剪枝后的模型中嵌入感受野模块,使模型的感受野变大,增强模型的辨别能力和鲁棒性。实验结果表明:提出的下茧实时检测模型大小为46.90 M,平均检测速度达到50.18 帧/s,平均检测精度为96.80%,较原YOLOv3模型参数压缩了79.96%,平均检测速度提高了60.63%,平均检测精度提高了3.20%。  相似文献   

8.
目的:实现烟叶分级流程烟梗部位的智能抓取,防止智能烟叶分级系统中机械手在抓取烟叶时对叶面造成损伤,减少烟叶智能分级设备生产中的人为操作,解决烟叶分级系统中的单片烟叶识别分类问题与对应等级单片烟叶存放问题。方法:提出一种基于改进YOLOv3的卷积神经网络烟梗自动识别定位模型。该模型在原有的YOLOv3的基础模型上改变单元模块结构引入注意力机制模块,优化模型参数,使用Swish激活函数,实现了对烟叶图像全部信息进行目标定位识别,构建烟梗目标检测模型。结果:改进后的YOLOv3模型的loss能更快的收敛,其mAP由90.46%提升为97.48%,准确率由95.33%提升为97.35%,回归率由84.65%提升为95.65%,为后续烟叶自动化分类打下基础。结论:与YOLOv3、Faster-rcnn、YOLOv4、Efficientdet算法作对比分析表明试验提出的算法更加轻量化,识别效果更好,能减少对烟梗试验平台的硬件配置要求,提高烟叶分类系统的经济效益,为烟叶分级系统中烟叶上料与分仓提供准确的位置信息。  相似文献   

9.
鉴于织物表面纹理复杂导致织物缺陷检测准确率低以及小目标检测困难等问题,提出一种基于改进YOLOv5的织物缺陷检测算法。首先,在YOLOv5的骨干网络上,增加CBAM注意力机制,从而强化有用的特征信息弱化无用的特征信息;其次,将Neck层的路径聚合网络(PANet)用加权双向特征金字塔网络(Bi-FPN)替换,从而更好地平衡多尺度特征信息,提高小目标检测的特征能力。最后,通过改进损失函数,使用Focal EIOU Loss损失函数来代替CIOU Loss损失函数,不仅使得收敛速度更快,而且可以有效的解决难易样本不平衡问题。实践证明:改进后的训练模型平均精度均值mAP值为84.5%,比未改进增加了4.7%,可满足实际生产中的织物缺陷检测要求。  相似文献   

10.
针对大米在外观品质中需要快速识别需求,提出了一种基于改进YOLOv5s网络的大米外观品质识别模型(CG-YOLOv5)。为提高大米的识别率,文本增加了小目标检测层。其次,为使模型轻量化,用Ghost模块代替YOLOv5s的骨干网络。为进一步提升模型的性能,通过试验研究了不同的注意力机制对模型性能的影响,最终选取CBAM注意力机制加入到YOLOv5s网络中。为直观CBAM注意力机制的效果,对大米图像进行了特征图可视化。试验结果表明修改后的网络的mAP达到了96.5%,相比YOLOv5s网络提升了4.3个百分点。在相同数据集下,与8种主流的检测网络进行对比,并在不同光照情况下的试验结果表明,该方法的检测mAP和检测时间皆优于其它8种检测网络;在检测时间上,该方法的平均检测时间为41ms,相较于YOLOv3快119ms,相较于YOLOv4-tiny快35ms。该方法具有优异的检测精度以及良好的鲁棒性和实时性,可以用于大米品质检测中。  相似文献   

11.
烟草叶部病害种类繁多,病理复杂,严重影响烟草产量及品质,烟草病害精准检测是烟草病害及时防治的前提。传统检测方式精准性差、效率低,基于深度学习的算法可提高烟草病害检测准确性。本文以5种较为常见的烟草病害(普通花叶病、黄瓜花叶病毒病、赤星病、烟草野火病、气候性斑点病)为研究对象,构建基于YOLOv3的烟草病害检测模型,实现烟草多类病害的精准快速检测。使用Darknet53特征网络提取烟叶病害特征并将不同尺度病害特征融合,并用K-means++算法对融合后特征进行分类和位置预测,通过非极大值抑制算法(NMS)去除冗余框,得到病害区域预测框。用田间实际采集的烟草病害数据集,对构建的YOLOv3病害检测模型与SSD(Single Shot multibox Detector)模型对比测试。结果表明,YOLOv3的mIoU为0.81,明显优于SSD的0.73,且YOLOv3模型的mAP为0.77,也高于SSD的0.69。本研究构建的YOLOv3烟草病害检测模型能有效定位烟叶病害区域,实现多类烟草病害的检测,为精准病害防治提供参考。  相似文献   

12.
传统的基于颜色分割的乒乓球识别方法易受光线、清晰度影响,鲁棒性较低。为解决这一问题,对YOLOv4进行改进,用K-means聚类设计先验框,增强尺度适应性。针对乒乓球尺寸,裁剪网络分支并压缩卷积层,加快特征提取速度。针对采集数据正负样本不均衡,改进损失函数,提高预测框边界准确度。使用快速NMS算法加速预测过程,提高模型的计算速度。实验结果表明,基于YOLOv4的改进模型在乒乓球识别任务中精度达到94.12%,帧处理速率达到39.34fps。  相似文献   

13.
目的:实现咖啡豆瑕疵检测。方法:提出一种基于改进YOLOv5s网络,以YOLOv5s为基线网络嵌入并优选不同的注意力机制模块与激活函数。结果:使用CBAM模块与激活函数Hardswish的平均精度均值相比基线网络分别提高了5.3%和2.9%。经过200次迭代训练,模型准确率为99.5%,平均精度均值为97.6%,召回率为0.98,识别速率为64幅/s,模型大小为15 M。结论:相比于Faster RCNN、SSD、YOLOv3、YOLOv4、YOLOv5s,试验算法识别准确率更高,模型更加轻量化,对咖啡瑕疵豆的识别效果更好。  相似文献   

14.
针对传统的图像识别算法识别多品种工件,存在运行时间长、识别率低等问题,提出基于改进ORB-SVM的工件图像识别方法。在传统ORB算法的特征点检测基础上,采用SIFT算法获得具有旋转尺度不变性的图像特征描述,并利用词袋模型将图像特征转化为特征直方图,进而构建支持向量机(SVM)的分类模型,实现对工件的识别分类。试验结果表明:改进的ORB-SVM在应对旋转变换、光照变换、尺度变换时更具鲁棒性,且工件识别准确率高达98.89%,单个工件的识别时间低于0.43 s,具有良好的高效性和实用性。研究为多领域的工件识别提供参考。  相似文献   

15.
在自动缫的生丝生产过程中,生丝平均纤度会受到各种工艺条件的影响而发生变化,需要通过对绪下茧粒数进行检测来了解生丝平均纤度。基于形态学方法中的腐蚀膨胀法和K均值算法相结合的方法,改进了K均值聚类算法,解决了蚕茧图像中出现的多个蚕茧相互粘连的问题,实现了对粘连蚕茧图像的分割及蚕茧计数。结果表明:该方法能很好地解决图像反光及蚕茧图像粘连的问题,实现蚕茧图像的分割及正确计数,为绪下茧粒数自动检测技术的研究打下了基础。  相似文献   

16.
针对织物瑕疵中部分瑕疵目标小、长宽比极端等问题,提出一种基于改进YOLOv5的织物瑕疵检测方法。该方法在YOLOv5模型基础上引入自注意力机制CoTNet网络,并将颈部网络中的PAFPN网络优化为BiFPN网络,同时将目标损失函数改进为CIoU损失函数,加强模型对邻近键以及上下文之间特征信息的收集,在增强模型对小目标和尺寸变化大类型瑕疵检测能力的同时可获得更准确的边界框回归,加快收敛速度。实验证明,本文改进的模型在织物瑕疵检测数据集上的检测效果和YOLOv5模型相比平均精度均值提升了6.8%,准确率提升了6.7%,模型验证有效。  相似文献   

17.
为了获得天然绿色蚕茧色彩特性与煮茧工艺的关系,采用正交试验法,对影响煮茧后绿色蚕茧色素流失量的工艺参数-温度、时间及绿色蚕茧的品种进行了研究,探讨了煮茧工艺对绿色蚕茧的丝胶溶失率与色彩的影响,确定了最佳的煮茧工艺。实验结果表明:影响煮茧后绿茧的丝胶溶失率和色差的工艺参数的主次顺序为温度、时间、品种;随着煮茧温度和时间的增加,绿茧的丝胶溶失率和色差整体呈增加的趋势。浅色绿茧相对深色绿茧应该选择较低的温度和较长的时间,使得煮后的茧子具有适当丝胶溶失率,而又最大化地保留了其天然色彩。  相似文献   

18.
为快速、准确检测布匹疵点,提出以深度学习目标检测框架YOLOv4为基础的布匹疵点检测方式,首先将5种常见疵点图像(吊经、百脚、结点、破洞、污渍)进行预处理,然后将图像输入到YOLOv4算法中进行分类。YOLOv4采用CSPDarknet53作为主干网络提取疵点特征,SPP模块、FPN+PAN的方式作为Neck层进行深层疵点特征提取,预测层采用3种尺度预测方式,对不同大小的疵点进行检测。研究结果表明:经600个测试集样本的验证,该方法对疵点图像的检测准确率达95%,检测单张疵点图像的速率为33 ms。与SSD、Faster R-CNN、YOLOv3方法进行比较,采用YOLOv4方法准确率更高,速度更快。  相似文献   

19.
为探索传统服饰文化的智能化保护手段和提高传统服饰文化的传播效率,以加权投票法集成多注意力机制的传统服饰识别算法为核心,构建了一个典型传统服饰图像的在线识别系统。首先,通过书籍扫描和线下拍摄等手段收集传统服饰图像数据,再联合多背景替换和几何变换混合增强服饰图像数据,完成传统服饰图像数据集的构建。随后,采用迁移学习技术在DenseNet169网络上分别引入了通道注意力、卷积注意力和位置注意力3种机制来构建模型,并对3种模型的识别结果进行加权投票判决,实现对传统服饰图像的高精度识别。在此基础上,通过对未知待测图像进行在线裁剪和自适应等规范化预处理,提高了识别系统的泛化适应性。最后,采用Web和云计算技术实现了系统的在线识别、交互、显示和账号管理等功能集成。测试结果表明,本文实现的传统服饰识别算法在验证集上的识别准确率达到了93.5%,构建的系统能够有效地在线识别15类传统服饰图像,对传统服饰文化的传播和保护具有一定的促进作用。  相似文献   

20.
植株数是用于监测作物生长状况和估测产量的重要田间表型性状。为实现烟草植株数高效自动清点,针对无人机遥感影像烟株检测中存在小尺寸聚集目标容易漏检的问题,提出了一种YOLOv7目标检测优化模型YOLOv7-Sim。首先引入Sim AM注意力机制增强图像特征之间的聚合能力;然后加入小目标检测层强化算法对小目标的检测能力;再对定位损失函数进行优化,引入了EIOU定位损失函数;最后利用分块策略解决大图像检测中小目标容易采样丢失的问题。在VisDrone2019数据集和本文构造的UAVTob无人机遥感影像烟草数据集上的检测结果显示,检测均值平均精确率mAP@0.5提升了0.3%和6.3%,mAP@0.5:0.95提升了0.6%和18.3%,YOLOv7-Sim算法对无人机遥感影像中的烟株检测更具优越性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号