首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对机器人在抓取目标工件的过程中由于光线强度变化、图像环境复杂和拍摄设备移动等造成的工件识别精度低的问题,文章提出一种改进YOLOv5s的工件识别检测算法。首先,通过数据增强扩充数据集并进行预处理;其次,使用改进的k-means聚类算法重新生成更有效的预设锚框,缩短收敛路径;然后,在特征融合网络中添加CBAM注意力机制,有效抑制背景信息干扰,提高特征提取速度;此外,将特征融合模块中原有的特征金字塔结构替换成加权双向特征金字塔Bi-FPN结构,实现高效的加权特征融合和双向跨尺度连接,提高网络对不同尺度特征的融合效率;最后,通过采用α-IoU作为边界框回归损失函数,提高模型的定位效果。结果表明,改进后的YOLOv5s算法对工件检测的mAP值提升了6.03%,检测速度提升了13.7 fps,验证了改进算法的有效性。  相似文献   

2.
为了实现电致发光(Electroluminescent,EL)条件下太阳能电池的高精度裂纹和碎片缺陷检测,将多尺度YOLOv5(You Only Look Once version 5)模型用于真实工况下的太阳能电池缺陷检测。首先,提出一种融合可变形卷积(Deformable Convolutional Networks Version 2,DCNv2)和坐标注意力(Coordinate Attention,CA)的改进特征提取网络,拓宽小目标缺陷的感受野,有效增强小尺度缺陷特征的提取。其次,提出一种名为CA-PANet的改进路径聚合网络(Path Aggregation Network,PANet),将CA与跨层级联整合在路径增强结构中,实现浅层特征的复用,使深层特征和浅层特征结合,增强不同尺度缺陷的特征融合,提高缺陷的特征表达能力,提升缺陷检测框的准确度。轻量级CA的计算成本低,保证了模型的实时性。实验结果表明,融合DCNv2与CA注意力的YOLOv5模型平均精度均值(Mean Average Precision, mAP)值可达95.4%,较YOLOv5模型提高3%,较YOLOX...  相似文献   

3.
为了解决人工识别车辆耗时耗力的问题,开展了面向道路场景的智能车辆检测算法研究,旨在实现智能化的车辆检测。提出了一种基于深度学习的道路车辆检测模型,通过采用轻量化且易于部署和开发的YOLOv5s模型作为基础模型,同时引入CA、SE和CBAM三个经典的注意力模块来替换YOLOv5的主干网络中的C3模块,使网络模型能够更好地聚焦于车辆区域,提升了车辆检测的准确性。这使得模型在保持高效性和易用性的同时,能够更好地适应复杂道路场景下的车辆检测需求。实验结果显示,将CBAM注意力模块引入网络模型后,在UA-DETRAC数据集上进行车辆检测的平均精度均值可达92.3%,相比其他注意力模块,其表现更为出色。这一研究结果对于实现智能化的车辆检测具有重要意义,有望为道路交通监控、驾驶辅助系统等应用提供更可靠的解决方案。  相似文献   

4.
目前,地铁车辆的检修主要依赖于人工检测,不仅效率低,而且可能因漏检等原因造成严重的行车安全事故。因此提出了一种基于改进YOLOv5算法的地铁车辆转向架螺栓缺失检测算法。首先,在YOLOv5算法的骨干网络和特征提取网络中添加Ghost模块,轻量化网络结构,提升检测效率和速度;其次,采用改进的YOLOv5算法对螺栓进行定位训练,并插入CBAM注意力模块,增加网络对目标的关注度,从而获得良好的螺栓定位检测模型;最后通过模板匹配的方法,对比网络检测结果与正常转向架螺栓数量及分布,获得缺失螺栓数目与位置信息。实验结果显示,改进后的YOLOv5网络模型检测精度提升3.9%,模型参数量减少了近1/2,检测速度提升9 fps,螺栓缺失检测准确率为86.2%。因此,文中提出的改进YOLOv5算法的地铁车辆转向架螺栓检测模型满足螺栓缺失定位的检测任务要求,取得了良好的应用效果。  相似文献   

5.
随着计算机视觉行业的不断发展,基于卷积神经网络的目标检测算法也受到了研究人员的重视。针对传统的YOLOv5目标检测算法中的边界框回归损失函数GIOU存在当检测框与真实框呈包含的状态时会退化到传统IOU损失函数,以及当检测框和真实框相交时在垂直和水平两个方向上存在收敛速度慢的问题,提出一种改进的YOLOv5目标检测算法。在传统YOLOv5的基准网络中添加注意力机制,然后在边界框回归损失函数中引入真实框与预测框中心的欧式距离计算预测损失,并分别计算预测框与真实框之间的纵横比作为惩罚项以达到提高回归精度以及加快收敛速度的目的,最后将改进后的YOLOv5目标检测模型应用于人脸检测进行验证。实验利用wideface人脸数据集训练,训练结果表明改进的YOLOv5目标检测算法训练中的损失只有0.013,较传统的YOLOv5目标检测算法损失减少约13.33%,准确率达到82.28%,较传统的YOLOv5目标检测算法提高2.6%。实验表明该目标检测算法能很好的应用于人脸检测中。  相似文献   

6.
针对YOLOv5目标检测模型训练时间长、检测精度偏低问题,提出一种目标图像组合算法,考虑必要的图像背景及图像覆盖对目标图像进行分割,设计减少图像失真的重组策略提高单张训练集图像内目标个数,降低模型训练时长。改进先验框生成策略,以绝对差值作为距离函数,对训练集目标边框的长和宽分别进行一维K-means聚类,提高先验框对训练集的适应度。提出多层并列卷积结构,对输入特征经过三层并列卷积后的输出进行融合,增强特征表征能力。以VOC2007和VOC2012训练集和验证集作为训练图像,采用目标图像组合算法,模型训练时间减少30%以上,改进先验框生成策略使先验框对训练集的适应度达到0.735。在VOC2007测试数据集上测试,改进YOLOv5模型平均准确率均值(mAP)由79.1%提升至80.3%。  相似文献   

7.
张新伟  陈东  闫昊  马兆昆 《工具技术》2023,(10):150-155
针对零件在密集遮挡等复杂场景下存在视觉识别难度大、检测精度低和实时性差的问题,提出YOLOv5零件目标检测的改进算法。在YOLOv5的主干网络中添加卷积注意力机制模块,进而增强算法对零件的特征提取能力;将抑制准则改为考虑真实框与预测框重叠区域且同时计算两个框之间中心点距离的DIoU-NMS,并以此作为后处理方法,进而提高零件检测精度。试验结果表明,相比原始YOLOv5算法,本改进算法将mAP@0.5提升1.6%,识别速度达58.8帧/s,可以更好地完成检测密集遮挡零件的任务,同时保证了实时性。  相似文献   

8.
针对传统的人脸识别算法易受光照等因素影响的缺点,提出了一种基于多尺度分析的人脸识别算法。首先,对采集到的人脸图像进行预处理,去除噪声,减弱无用信息,增强有用信息;然后,在粗尺度上采用形态学梯度边缘检测算法对人脸轮廓进行提取,缩小人脸库的搜索范围;最后,在细尺度上对人脸的不变特征进行提取,采用Harris角点检测算法对在粗尺度上得到的边缘图像进行特征提取,减少计算量,提高了识别速度。在所拍摄的人脸库上对算法进行验证,实验表明,对易于进行轮廓提取的人脸图像的识别速度较快,精度较高。  相似文献   

9.
由于酒瓶产品缺陷多样以及产品缺陷较小,使用了YOLOv5作为基础框架来设计算法。对YOLOv5进行了深入研究,发现虽然空间池化金字塔(Spatial Pyramid Pooling,SPP)在多尺度检测中优化了计算量和减少了数据量。但是,在某些情况下,空间金字塔池化会出现信息丢失的问题,影响了检测精度。为此,提出一种将空间池化金字塔改进为空洞空间池化金字塔(Atrous Spatial Pyramid Pooling,ASPP)。ASPP可以对不同尺度的特征图进行并行池化,从而综合多尺度特征信息,获得更全面、更准确的特征表示。将SPP算法改进为ASPP算法后,在酒瓶缺陷数据集上进行了实验。实验结果证明改进后的YOLOv5算法在酒瓶缺陷检测精度上提升4%,mAP@0.5提升了2%,mAP@0.5:0.95提升了1.5%。  相似文献   

10.
传统物流作业主要依靠人工操作叉车对托盘进行搬运,自动化程度低。工厂实际环境复杂多样,导致现有的托盘检测算法的模型复杂,耗时较长,无法同时达到准确性和实时性要求,难以实际运用。针对浙江某机械(搬运)设备有限公司下属的电动车工业园实际工厂环境下,XP3托盘自动搬运机器人工作效率问题,提出了一种高效准确的托盘检测算法,该算法利用改进的YOLOv5s网络检测托盘,在托盘定位部分准确率达到了99.8%,定位仅耗时10ms,同时算法的总体正确率达到了98.9%,总体耗时仅54ms,实现了对托盘高效精确的检测。  相似文献   

11.
12.
为了提高工业现场等复杂场景下的小目标检测的准确率,降低工业现场的安全事故发生率,基于 YOLOv3 提出了一种改进多尺度特征融合方法。该方法增加了Inception _ shortcut 模块,优化网络的输出宽度,使用工业现场的监控视频作为数据集以及利用 k-means 算法对检测目标重新聚类,引入了 PANet 多尺度特征融合结构,精简了 YOLOv3 的网络检测输出层。在创建工业现场安全帽、安全绳数据集 FHPD 、FSRPD 以及 PASCAL VOC2007 数据集上的实验结果表明,改进算法的 mAP 比原始 YOLOv3 提高了许多。改进的多尺度特征网络融合增加了参数,但检测速度仍满足算法的实时性要求。  相似文献   

13.
针对起重机制动下滑量测量问题,现阶段常见检测方法不能满足测量需求,故设计了一种基于YOLOv5的起重机制动下滑量检测软件。文中通过相机采集起重机制动过程,利用YOLOv5s训练并识别标记点,对标记点进行边缘提取和中心定位,改进欧式距离进行图像匹配,使匹配结果更加精确。实验结果表明,改进欧氏距离在匹配上更为精确,明显提高了起重机制动下滑量的测量精度,且下滑量测量系统具有高效性和稳定性。  相似文献   

14.
目前,在铝制品的加工生产过程中,缺陷检测环节仍以人眼观测为主,这种传统方式存在检测精度差和检测效率低等缺陷,为此,提出基于YOLOv5s的铝型材表观缺陷检测方法。针对具有9种缺陷的铝型材图像,使用labelimg进行标注,构建了铝型材数据集。基于该数据集,以YOLOv5s、YOLOv5m、YOLOv5l在COCO数据集上训练好的权值作为初始权值,对该3种模型进一步迭代训练,并将最优权重进行测试。对比3种模型的实验结果,决定采用YOLOv5s作为铝型材表观缺陷检测的模型,其测试精确度P、召回率R、均值平均精度mAP分别达到了0.684、0.742、0.692。并基于该模型,采用PyQt5开发了铝型材表观缺陷检测系统,其检测速率可达98Fps左右,可以很好地满足实时性要求,从而为铝型材表观缺陷检测提供了有效的参考方案。  相似文献   

15.
一种多尺度时频纹理特征融合的场景分类算法   总被引:1,自引:0,他引:1       下载免费PDF全文
史静  朱虹  邢楠  韩勇  杜森 《仪器仪表学报》2016,37(10):2333-2339
场景分类目前是机器视觉领域的一个研究热点,为了解决该研究领域中分类特征的提取问题,提出了一种多尺度纹理描述子(MSTD)特征。首先,采用小波变换,获得图像在时频域上的多尺度纹理视觉全局特征信息,之后提取反映局部细节的局部二值模式(LBP)特征,在时频域上进行融合,生成多尺度纹理描述子特征,以此作为图像分类的依据,最后采用支持向量机(SVM)作为分类器进行场景分类。在4个标准数据集上进行测试,实验结果表明,该方法具有较高的分类正确率,对室外场景的分类正确率都在84%以上。所提出的分类方法充分考虑了全局特征和尺度信息,增强了单层特征的区分度,有效地改善了分类的精度。  相似文献   

16.
为提高红外图像弱小目标检测的准确率和实时性,在分析用于红外图像增强的分形参数K相关的多尺度分形特征(MFFK)基础上,提出了一种基于改进多尺度分形特征(IMFFK)的红外图像弱小目标检测算法。首先,将基于地毯覆盖法的分形维数计算公式代入MFFK计算公式,提出了一种改进多尺度分形特征(IMFFK)用于图像增强。其次,对IMFFK特征计算进行简化,采用自适应阈值分割得到感兴趣目标区域,提出了一种具有较高计算效率的红外图像弱小目标检测算法。最后,通过仿真图像分析了主要参数对图像增强和算法耗时的影响,采用红外真实图像进行了算法检测性能测试,并与当前基于局部对比度测度的目标检测算法进行了对比。实验结果表明,提出的算法虽然在一些检测场景具有较多虚警,但能同时适用于弱小目标和较大目标检测,且无论目标为亮目标或暗目标。提出算法对于低分辨率红外图像(320×240)检测接近30 frame/s。提出算法具有较强的适用性,能够检测出红外图像中具有较高局部对比度的目标。  相似文献   

17.
针对目前铝材表面缺陷检测算法在实际工程应用中检测精度低以及不够轻量化难以部署等问题,文章提出一种基于改进YOLOv5s的铝材表面缺陷检测方法。该算法以经典YOLOv5s模型为基础,将ShufflenNetV2-Block算法融合到主干网络backbone中,降低模型的计算复杂性;然后添加SE注意力机制,使注意力集中于缺陷相关区域,更好地区分类别之间的差异,提高分类性能和检测效率;最后优化损失函数,采用SIoU(S-intersection over union)替代CIoU,提升网络定位精度。结果表明:针孔类和斑点类缺陷检测精度比原版YOLOv5分别提升了8.3%和8.4%,mAP值提高了6.4%,提高了缺陷检测精度且降低了模型的大小和所占内存,更加便于移动端部署,有效改善了制造过程中漏检问题。  相似文献   

18.
多聚焦图像融合技术是为了突破传统相机景深的限制,将焦点不同的多幅图像合成一幅全聚焦图像,以获得更加全面的信息。以往基于空间域和基于变换域的方法,需要手动进行活动水平的测量和融合规则的设计,较为复杂。所提出的方法与传统的神经网络相比增加了提取浅层特征信息的部分,提高了分类准确率。将源图像输入训练好的多尺度特征网络中获得初始焦点图,然后对焦点图进行后处理,最后使用逐像素加权平均规则获得全聚焦融合图像。实验结果表明,本文方法融合而成的全聚焦图像清晰度高,保有细节丰富且失真度小,主、客观评价结果均优于其他方法。  相似文献   

19.
针对图像全站仪在无棱镜合作工作模式下无法实现目标点全自动测量的问题,提出一种融合改进YOLOv5算法的图像全站仪全自动测量方法。应用融合卷积注意力机制模块的YOLOv5算法,实现了反射片靶标的广角镜头识别与检测;应用目标自动照准算法,实现了反射片靶标中心的长焦镜头精确照准,进而实现目标点位置坐标的全自动测量。借助自研的图像全站仪开展了反射片靶标的识别与检测实验和目标点全自动测量实验。实验结果表明,利用改进的YOLOv5算法对反射片靶标的识别与检测的准确率可达98.65%;目标点全自动测量方法具有与人工照准测量方法相当的测量精度且测量效率较后者提高了1.5倍。所提方法具有较高的测量精度和测量效率,可广泛应用于无人值守的全自动测量工作场合。  相似文献   

20.
针对动态场景下的动态物体容易产生移动和变形,从而直接影响单目视觉SLAM定位和建图的效率等问题,提出了一种使用深度学习对图像进行动态特征点剔除的单目视觉SLAM算法。基于ORB-SLAm3算法的整体框架,在动态物体检测线程中使用YOLOv5构建的卷积神经网络作为目标识别算法,在跟踪线程中对动态物体特征点进行剔除,有效减少了错误特征提取造成的运行时间浪费和位姿估计误差。经实验验证,所提算法在TUM动态场景单目数据集中能够保持准确定位且效率较高,其定位精度比ORB-SLAm3和ORB-SLAM2更好,效率分别提高了20.65%和19.14%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号