共查询到20条相似文献,搜索用时 93 毫秒
1.
交通标志识别是自动驾驶技术中的关键一部分.针对交通标志在道路场景中目标较小且识别精度较低的问题,提出一种改进的YOLOv5算法.首先在YOLOv5模型中引入全局注意力机制(GAM),提高网络捕获不同尺度交通标志特征的能力;其次将YOLOv5算法中使用的GIoU损失函数更换为更具回归特性的CIoU损失函数来优化模型,提高对交通标志的识别精度.最后在Tsinghua-Tencent 100K数据集上进行训练,实验结果表明,改进后的YOLOv5算法对交通标志识别的平均精度均值为93.00%,相比于原算法提升了5.72%,具有更好的识别性能. 相似文献
2.
为了实时检测并识别路上的交通标志,针对在不良光照情况影响下小型交通标志的识别精确度较低、误检、漏检严重的问题,提出了一种基于改进YOLOv5的交通标志识别模型.首先在YOLOv5模型的浅层特征图层增加一次concat操作,将浅层的特征信息结合中间特征图层作为一个检测头,有利于小目标交通标志的识别效率.其次将坐标注意力机制添加到YOLOv5模型中,从而提高特征提取的效率.对中国交通标志数据集TT100K进行数据扩充和暗光增强的操作,最后在经过预处理的TT100K数据集上验证本文改进的模型检测效果.实验结果表明本文改进的模型对小目标及昏暗情况的交通标志识别效率有很大的提升.本文改进的YOLOv5模型与最初的YOLOv5模型均在扩充后的数据集上进行训练后的结果相比,在准确率上提升了1.5%,达到了93.4%;召回率提升了6.8%,达到了92.3%; mAP值提高了5.2%,达到了96.2%. 相似文献
3.
针对现存交通标志识别模型参数量过大、检测速度慢和检测精度较低的问题,本文提出一种改进YOLOv4-tiny的交通标志识别算法.该算法将深度可分离卷积应用到YOLOv4-tiny的特征提取网络中,显著降低了主干网络的参数量和计算量.在特征融合阶段,将特征提取网络得到的不同层次特征图输入双向特征金字塔网络结构(BiFPN)中进行多尺度特征融合.最后,在损失函数设计过程中,使用Focal损失函数代替二分交叉熵损失函数,使检测过程中的正负样本数量不均衡问题得以解决.在TT100K数据集上的测试结果表明,该算法的平均精度均值达到87.5%,相比于YOLOv4-tiny提升了3.9%,模型大小为14MB,仅为YOLOv4-tiny的58%.该算法一定程度上减少了计算量和模型大小,并带来了检测速度和精度的提升. 相似文献
4.
5.
近年来, 人工智能在各个领域有着广泛的应用. 针对超市及菜市场人工称重操作耗时、计价流程繁杂的问题, 本文提出一种基于注意力YOLOv5模型的水果自动识别算法. 首先, 为了提升仅有局部特征不同, 全局特征相似水果的识别准确率, 本文在YOLOv5的SPP (spatial pyramid pooling)层后增加SENet (squeeze-and-excitation networks), 采用注意力机制自动学习每个特征通道的重要程度, 进而按照重要程度强化对水果识别任务有用的特征并抑制没有用的特征; 其次, 针对水果识别预测框与目标框重叠时, GIOU不能准确表达边框重合关系问题, 本文将原有的边框回归损失函数GIOU替换为CIOU, 同时考虑目标框与预测框的高宽比和中心点之间的关系, 从而使水果预测框更加接近真实框, 提升预测精度. 实验结果表明, 改进后的模型在常见场景下水果识别能力有明显提升, 平均精度mAP达99.10%, 识别速度FPS达到82, 能够满足实际应用需要. 相似文献
6.
交通标志检测在自动驾驶、辅助驾驶等领域是一个重要的环节,关乎到行车安全问题。针对交通标志中存在目标小、背景复杂等难点,提出一种基于改进YOLOv5的算法。提出区域上下文模块,利用多种扩张率的空洞卷积来获取不同感受野,进而获取到目标及其相邻区域的特征信息,相邻区域的信息对交通标志小目标检测起到重要补充作用,可以有效解决目标小的问题;在主干部分引入特征增强模块,进一步提高主干的特征提取能力,利用注意力机制与原C3模块结合,使网络更能聚焦小目标信息,避免复杂背景的干扰;在多尺度检测部分,将浅层特征层与深层检测层进行特征融合,可以同时兼顾浅层位置信息与深层语义信息,增加目标定位与边界回归的准确度,更有利于小目标检测。实验结果表明,改进后的算法在交通标志检测数据集TT100K上取得了87.2%的小目标检测精度、92.4%的小目标召回率以及91.8%的mAP,与原YOLOv5算法相比较,分别提升了3.5、4.1、2.6个百分点,检测速度83.3 frame/s;在CCTSDB数据集上mAP为98.0%,提升了2.0个百分点,检测速度90.9 frame/s。因此,提出的改进YOLOv5算法可以有效... 相似文献
7.
在真实场景下准确实时检测小目标交通标志对自动驾驶有重要意义,针对YOLOv5算法检测小目标交通标志精度低的问题,提出一种基于改进YOLOv5的小目标交通标志实时检测算法。借鉴跨阶段局部网络思想,在YOLOv5的空间金字塔池化上设置新的梯度路径,强化特征提取能力;在颈部特征融合中增设深、浅卷积特征的可学习自适应权重,更好地融合深层语义和浅层细节特征,提高小目标交通标志的检测精度。为验证所提算法的优越性,在TT100K交通标志数据集上进行了实验验证。实验结果表明所提算法在小目标交通标志上的平均精度均值(mean average precision,mAP)为77.3%,比原始YOLOv5提升了5.4个百分点,同时也优于SSD、RetinaNet、YOLOX、SwinTransformer等算法的检测结果。所提算法的运行速度为46.2 frame/s,满足检测实时性的要求。 相似文献
8.
针对当前在真实环境中交通标志呈多尺度分布,且图像背景复杂、天气光照多变等多种因素造成识别精度低、识别速度慢等情况.提出了一种基于深度学习神经网络的交通标志识别的设计与实现.首先从公开数据集TT100K中选取出现次数最多的45类交通标志进行识别,接着对图像进行mosaic等图像增强及图像处理.然后在深度学习神经网络中的Y... 相似文献
9.
自动驾驶技术的快速发展,导致对交通标志检测技术的要求日益提高.为解决YOLOv7算法在识别小目标时误检、漏检等问题,本文提出一种基于注意力机制的交通标志检测模型YOLOv7-PC.首先通过K-means++聚类算法对交通标志数据集进行聚类,获得适用于检测交通标志的锚框;其次在YOLOv7主干特征提取网络中引入坐标注意力机制,将交通标志的横向和纵向信息嵌入到通道中,使生成的特征信息具有交通标志的坐标信息,加强有效特征的提取;最后在加强特征提取网络中引入空洞空间金字塔池化,捕获交通标志多尺度上下文信息,在保证交通标志小目标分辨率的同时,进一步扩大卷积的感受野.在中国交通标志检测数据集(CCTSDB)上的实验表明,本文算法增强了识别小目标的能力,相较于YOLOv7模型,本文算法的m AP、召回率平均分别提高了5.22%、9.01%,是一种有效的交通标志检测算法. 相似文献
10.
针对目前复杂环境下因光照不均匀、背景近肤色以及手势尺度较小等原因导致的手势检测算法识别率低的问题,提出了一种手势识别方法 HD-YOLOv5s。首先采用基于Retinex理论的自适应Gamma图像增强预处理方法降低光照变化对手势识别效果的影响;其次构建具有自适应卷积注意力机制SKNet的特征提取网络,提高网络的特征提取能力,减少复杂环境中的背景干扰问题;最后在特征融合网络中构建新型的双向特征金字塔结构,充分利用低层级特征以降低浅层语义信息的丢失,提高小尺度手势的检测精度,同时采用跨层级联的方式,进一步提高模型的检测效率。为了验证改进方法的有效性,分别在具有丰富光照强度对比的自制数据集和具有复杂背景的公共数据集NUS-Ⅱ上进行实验,识别率达到了99.5%和98.9%,单帧照片的检测时间仅需0.01~0.02 s。 相似文献
11.
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。 相似文献
12.
针对交通标志识别模型检测速度与识别精度不均衡,以及受遮挡目标和小目标难以检测的问题,对YOLOv5模型进行改进,提出一种基于坐标注意力(CA)的轻量级交通标志识别模型。首先,通过在主干网络中融入CA机制,有效地捕获位置信息和通道之间的关系,从而更准确地获取感兴趣区域,避免过多的计算开销;然后,通过在特征融合网络中加入跨层连接,在不增加成本的情况下融合更多的特征信息,提高网络的特征提取能力,并改善对遮挡目标的检测效果;最后,引入改进的CIoU函数计算定位损失,以缓解检测过程中样本尺寸分布不均衡的现象,并进一步提高对小目标的识别精度。在TT100K数据集上应用所提模型时,识别精度达到了91.5%,召回率达到了86.64%,与传统的YOLOv5n模型相比分别提高了20.96%和11.62%,且帧处理速率达到了140.84 FPS。实验结果比较充分地验证了所提模型在真实场景中对交通标志检测与识别的准确性与实时性。 相似文献
13.
针对目前我国智能驾驶辅助系统识别道路交通标志检测速度慢、识别精度低等问题,提出一种基于YOLOv3的改进的道路交通标志检测算法。首先,将MobileNetv2作为基础特征提取网络引入YOLOv3以形成目标检测网络模块MN-YOLOv3,在MN-YOLOv3主干网络中引入两条Down-up连接进行特征融合,从而减少检测算法的模型参数,提高了检测模块的运行速度,增强了多尺度特征图之间的信息融合;然后,根据交通标志目标形状的特点,使用K-Means++算法产生先验框的初始聚类中心,并在边界框回归中引入距离交并比(DIOU)损失函数来将DIOU与非极大值抑制(NMS)结合;最后,将感兴趣区域(ROI)与上下文信息通过ROI Align统一尺寸后融合,从而增强目标特征表达。实验结果表明,所提算法性能更好,在长沙理工大学中国交通标志检测(CCTSDB)数据集上的平均准确率均值(mAP)可达96.20%。相较于Faster R-CNN、YOLOv3、Cascaded R-CNN检测算法,所提算法拥有具有更好的实时性和更高的检测精度,对各种环境变化具有更好的鲁棒性。 相似文献
14.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。 相似文献
15.
为提升水上交通安全监管的智能化水平,进一步提高基于深度学习的船舶目标检测算法的定位精度和检测准确率,在传统YOLOv3算法基础上,提出用于船舶目标检测的增强YOLOv3算法。首先,在网络预测层引入预测框不确定性回归,以预测边界框的不确定性信息;然后,使用负对数似然函数和改进的二值交叉熵函数重新设计损失函数;其次,针对船舶形状使用K均值聚类算法重新设计先验锚框尺寸并平均分配到对应预测尺度;在网络训练阶段,使用数据增强策略扩充训练样本数量;最后,使用加入高斯软阈值函数的非极大值抑制(NMS)算法对预测框进行后处理。对各种改进方法和不同目标检测算法在真实海事视频监控数据集上进行对比实验。实验结果显示,与传统YOLOv3算法相比,带有预测框不确定性信息的YOLOv3算法的假正样本(FP)数量降低了35.42%,真正样本(TP)数量提高了1.83%,所以提高了准确率;增强YOLOv3算法在船舶图像上的平均准确率均值(mAP)达到87.74%,与传统YOLOv3算法和Faster R-CNN算法相比分别提高了24.12%和23.53%;所提算法的每秒钟检测图像数量达到30.70张,满足实时检测的要求。实验结果表明,所提算法在雾天和低照度等不良天气条件与复杂通航背景下,均能实现船舶目标的高精度稳定实时检测。 相似文献
16.
复杂场景下基于增强YOLOv3的船舶目标检测 总被引:1,自引:0,他引:1
为提升水上交通安全监管的智能化水平,进一步提高基于深度学习的船舶目标检测算法的定位精度和检测准确率,在传统YOLOv3算法基础上,提出用于船舶目标检测的增强YOLOv3算法。首先,在网络预测层引入预测框不确定性回归,以预测边界框的不确定性信息;然后,使用负对数似然函数和改进的二值交叉熵函数重新设计损失函数;其次,针对船舶形状使用K均值聚类算法重新设计先验锚框尺寸并平均分配到对应预测尺度;在网络训练阶段,使用数据增强策略扩充训练样本数量;最后,使用加入高斯软阈值函数的非极大值抑制(NMS)算法对预测框进行后处理。对各种改进方法和不同目标检测算法在真实海事视频监控数据集上进行对比实验。实验结果显示,与传统YOLOv3算法相比,带有预测框不确定性信息的YOLOv3算法的假正样本(FP)数量降低了35.42%,真正样本(TP)数量提高了1.83%,所以提高了准确率;增强YOLOv3算法在船舶图像上的平均准确率均值(mAP)达到87.74%,与传统YOLOv3算法和Faster R-CNN算法相比分别提高了24.12%和23.53%;所提算法的每秒钟检测图像数量达到30.70张,满足实时检测的要求。实验结果表明,所提算法在雾天和低照度等不良天气条件与复杂通航背景下,均能实现船舶目标的高精度稳定实时检测。 相似文献
17.
Objective.Computer vision-based up-to-date accurate damage classification and localization are of decisive importance for infrastructure monitoring, safety, and the serviceability of civil infrastructure. Current state-of-the-art deep learning (DL)-based damage detection models, however, often lack superior feature extraction capability in complex and noisy environments, limiting the development of accurate and reliable object distinction.Method.To this end, we present DenseSPH-YOLOv5, a real-time DL-based high-performance damage detection model where DenseNet blocks have been integrated with the backbone to improve in preserving and reusing critical feature information. Additionally, convolutional block attention modules (CBAM) have been implemented to improve attention performance mechanisms for strong and discriminating deep spatial feature extraction that results in superior detection under various challenging environments. Moreover, an additional feature fusion layers and a Swin-Transformer Prediction Head (SPH) have been added leveraging advanced self-attention mechanism for more efficient detection of multiscale object sizes and simultaneously reducing the computational complexity.Results.Evaluating the model performance in large-scale Road Damage Dataset (RDD-2018), at a detection rate of 62.4 FPS, DenseSPH-YOLOv5 obtains a mean average precision (mAP) value of 85.25%, F1-score of 81.18%, and precision (P) value of 89.51% outperforming current state-of-the-art models.Significance.The present research provides an effective and efficient damage localization model addressing the shortcoming of existing DL-based damage detection models by providing highly accurate localized bounding box prediction. Current work constitutes a step towards an accurate and robust automated damage detection system in real-time in-field applications. 相似文献
18.
针对日常道路场景下的车辆目标检测问题,提出一种轻量化的YOLOv4交通信息实时检测方法。首先,制作了一个多场景、多时段的车辆目标数据集,并利用K-means++算法对数据集进行预处理;其次,提出轻量化YOLOv4检测模型,利用MobileNet?v3替换YOLOv4的主干网络,降低模型的参数量,并引入深度可分离卷积代替原网络中的标准卷积;最后,结合标签平滑和退火余弦算法,使用LeakyReLU激活函数代替MobileNet?v3浅层网络中原有的激活函数,从而优化模型的收敛效果。实验结果表明,轻量化YOLOv4的权值文件为56.4 MB,检测速率为85.6 FPS,检测精度为93.35%,表明所提方法可以为实际道路中的交通实时信息检测及其应用提供参考。 相似文献
19.
针对交通标志在某些场景中存在分辨率过低、被覆盖等环境因素影响导致在目标检测任务中出现漏检、误检的情况,提出一种基于改进注意力机制的交通标志检测算法。首先,针对交通标志因破损、光照等环境影响造成图像分辨率低从而导致网络提取图像特征信息有限的问题,在主干网络中添加注意力模块以增强目标区域的关键特征;其次,特征图中相邻通道间的局部特征由于感受野重叠而存在一定的相关性,用大小为k的一维卷积代替通道注意力模块中的全连接层,以达到聚合不同通道信息和减少额外参数量的作用;最后,在路径聚合网络(PANet)的中、小尺度特征层引入感受野模块来增大特征图的感受野以融合目标区域的上下文信息,从而提升网络对交通标志的检测能力。在中国交通标志检测数据集(CCTSDB)上的实验结果表明,所提出的YOLOv4(You Only Look Once v4)改进算法在引进极少的参数量与原算法检测速度相差不大的情况下,平均精确率均值(mAP)达96.88%,mAP提升了1.48%;而与轻量级网络YOLOv5s相比,在单张检测速度慢10 ms的情况下,所提算法mAP比YOLOv5s高3.40个百分点,检测速度达到40?frame/s,说明该算法完全满足目标检测实时性的要求。 相似文献