首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 303 毫秒
1.
针对目前骑行人员头盔佩戴检测的准确率低、泛化能力差以及检测类别单一等问题,提出一种基于改进YOLO v5的骑行人员头盔及车牌检测模型。首先,在骨干网络中引入卷积注意力模块(convolutional block attention module, CBAM),以强化目标区域的关键特征,提高模型的准确率。其次,通过优化多尺度特征融合模块,并在预测端新增针对小目标特征的检测层,增强网络在密集场景下对小目标的检出率,提升模型的泛化能力。最后,使用EIoU(efficient intersection over union)优化边框回归,同时采用K-means算法在创建的头盔及车牌数据集中聚类先验框,以加速模型训练的收敛速度并提高目标定位的精度。实验结果表明,改进后的YOLO v5网络的检测准确率提高2.5%,召回率提高3.3%,平均精度均值提高3.8%,更适用于对骑行人员头盔及车牌目标的检测。  相似文献   

2.
针对目前车牌识别领域中,雾霾环境下车牌检测准确率低的问题,本文提出一种基于深度学习的抗雾霾车牌检测方法,该方法能够检测民用车牌和机场民航车辆车牌。该方法首先利用一种基于卷积神经网络的去雾算法对车牌图片进行去雾预处理,然后将处理过的无雾霾图片送入PLATE-YOLO网络中检测车牌的位置。该PLATE-YOLO网络是本文针对车牌检测的特点,对YOLOv3网络做了修改后得到的适用于车牌检测的网络。主要改进点有两处:第一,提出了一种基于层次聚类算法的锚盒(anchor box)个数和初始簇中心的计算方法;第二,针对车牌目标较大的特点,对网络的多尺度特征融合做了优化。优化后的PLATE-YOLO网络更适合于车牌检测,且提高了检测速度。实验证明,PLATE-YOLO网络检测车牌的速度较YOLOv3提高了5 FPS;在雾霾环境下,经去雾预处理的 PLATE-YOLO车牌检测方法比未经去雾处理的车牌检测方法准确率提高了9.2%。   相似文献   

3.
针对现有安全帽佩戴检测算法在复杂场景下存在密集目标检测难度大、小目标误检和漏检等问题,提出一种基于改进YOLOv5的安全帽佩戴检测算法。该算法主要在以下三个方面进行优化:通过在主干网络添加卷积块注意力模块(CBAM)来提取多个尺度的全局特征信息,使模型在通道和空间上更关注主要信息,得到更丰富的高层语义信息;将特征融合网络中的路径聚合网络(PAN)改进为加权双向特征金字塔网络(BiFPN),实现特征信息双向跨尺度连接和加权融合;将边界框回归损失函数改进为EIOU损失函数,加快边界框收敛速度和提高目标识别准确率。在自制的安全帽佩戴检测数据集上进行实验验证的结果表明:改进后的算法平均准确率(mAP)达到92.8%,相较于YOLOv5算法,改进后的算法在目标检测精确度和召回率上分别提升2.4%和1.8%。  相似文献   

4.
针对工地场景错综复杂,监控画面噪声多且模糊等问题,提出了在复杂场景下的改进版YOLOv5的安全帽检测算法。通过网络爬虫、实地采集等方法收集了9 256张工地的复杂场景下的照片,并使用labelImg进行标注;设计了ECA_H通道注意力,添加到BackBone的C3模块和SPPF模块之间,获取图像的通道细节信息。通过对比实验显示,改进后的模型在复杂场景下识别检测安全帽的准确率(Precision)提升了1.2%,召回率(Recall)提升了2.9%,mAP0.5提升了1.8%,mAP0.5-0.95提升了5.2%。可见,改进后的模型在复杂场景下检测是否佩戴安全帽的性能有所提升。  相似文献   

5.
针对视网膜血管拓扑结构不规则、形态复杂和尺度变化多样的特点,该文提出一种多分辨率融合输入的U型网络(MFIU-Net),旨在实现视网膜血管精准分割。设计以多分辨率融合输入为主干的粗略分割网络,生成高分辨率特征。采用改进的ResNeSt代替传统卷积,优化血管分割边界特征;将并行空间激活模块嵌入其中,捕获更多的语义和空间信息。构架另一U型精细分割网络,提高模型的微观表示和识别能力。一是底层采用多尺度密集特征金字塔模块提取血管的多尺度特征信息。二是利用特征自适应模块增强粗、细网络之间的特征融合,抑制不相关的背景噪声。三是设计面向细节的双重损失函数融合,以引导网络专注于学习特征。在眼底数据用于血管提取的数字视网膜图像(DRIVE)、视网膜结构分析(STARE)和儿童心脏与健康研究(CHASE_DB1)上进行实验,其准确率分别为97.00%, 97.47%和97.48%,灵敏度分别为82.73%, 82.86%和83.24%,曲线下的面积(AUC)值分别为98.74%, 98.90%和98.93%。其模型整体性能优于现有算法。  相似文献   

6.
针对火灾检测算法检测多尺度火焰和烟雾精度低,且实时性差的问题,提出了一种基于Transformer改进YOLO v4的火灾检测方法.首先,结合MHSA(Multi-Head Self-Attention)改进了CSPDarknet53主干网络,建模全局依赖关系以充分利用上下文信息.此外,基于MHSA改进了PANet模块进行多尺度特征图融合,获取更多的细节特征.为验证改进方法的有效性,与YOLO v4、YOLO v3等算法进行比较.实验证明,不仅能够检测多尺度目标,且视频监控场景下达到实时性,具有准确率高、误报率低、检测实时性等优点,满足监控视频场景下的火灾检测任务.  相似文献   

7.
杜铭辉  吴林煌  苏喆 《电视技术》2024,(3):50-54+64
针对现有车牌检测算法存在的模型参数量过大、实时性差和检测效果不佳等问题,提出一种基于深度学习的轻量化车牌检测网络(Lightweight License Plate Detection Networks,LW-LPDNet)模型。该模型以PP-LCNet作为骨干网络,大幅减少模型参数量,同时融入压缩-激励网络(Squeeze and Excitation Networks,SE-Net)注意力模块,增加车牌信息的通道权重。最后,引入SimSPPF和GSConv,对多尺度特征进行融合,增大感受野,进一步提高检测准确率。通过对模型进行训练和测试,LW-LPDNet在中国城市停车数据集(Chinese City Parking Dataset,CCPD)上获得98.9%的平均精确率,优于其他车牌检测方法,且模型参数量仅有0.13 MB,检测速度达到243 f·s-1,具备较高的实时性。  相似文献   

8.
针对复杂城市监控场景中由于目标尺寸变化大、目标遮挡、天气影响等原因导致目标特征不明显的问题,该文提出一种基于注意力机制的多尺度全场景监控目标检测方法。该文设计了一种基于Yolov5s模型的多尺度检测网络结构,以提高网络对目标尺寸变化的适应性。同时,构建了基于注意力机制的特征提取模块,通过网络学习获得特征的通道级别权重,增强了目标特征,抑制了背景特征,提高了特征的网络提取能力。通过K-means聚类算法计算全场景监控数据集的初始锚框大小,加速模型收敛同时提升检测精度。在COCO数据集上,与基本网络相比,平均精度均值(mAP)提高了3.7%,mAP50提升了4.7%,模型推理时间仅为3.8 ms。在整个场景监控数据集中,mAP50达到89.6%,处理监控视频时为154 fps,满足监控现场的实时检测要求。  相似文献   

9.
本文提出了一种场景文本检测方法,用于应对复杂自然场景中文本检测的挑战。该方法采用了双重注意力和多尺度特征融合的策略,通过双重注意力融合机制增强了文本特征通道之间的关联性,提升了整体检测性能。在考虑到深层特征图上下采样可能引发的语义信息损失的基础上,提出了空洞卷积多尺度特征融合金字塔(dilated convolution multi-scale feature fusion pyramid structure, MFPN),它采用双融合机制来增强语义特征,有助于加强语义特征,克服尺度变化的影响。针对不同密度信息融合引发的语义冲突和多尺度特征表达受限问题,创新性地引入了多尺度特征融合模块(multi-scale feature fusion module, MFFM)。此外,针对容易被冲突信息掩盖的小文本问题,引入了特征细化模块(feature refinement module, FRM)。实验表明,本文的方法对复杂场景中文本检测有效,其F值在CTW1500、ICDAR2015和Total-Text 3个数据集上分别达到了85.6%、87.1%和86.3%。  相似文献   

10.
赵斌  王春平  付强 《电子与信息学报》2020,42(10):2524-2532
超大视场(U-FOV)红外成像系统探测范围大、不受光照限制,但存在尺度多样、小目标丰富的特点。为此该文提出一种具备背景感知能力的多尺度红外行人检测方法,在提高小目标检测性能的同时,减少冗余计算。首先,构建了4尺度的特征金字塔网络分别独立预测目标,补充高分辨率细节特征。其次,在特征金字塔结构的横向连接中融入注意力模块,产生显著性特征,抑制不相关区域的特征响应、突出图像局部目标特征。最后,在显著性系数的基础上构建了锚框掩膜生成子网络,约束锚框位置,排除平坦背景,提高处理效率。实验结果表明,显著性生成子网络仅增加5.94%的处理时间,具备轻量特性;超大视场(U-FOV)红外行人数据集上的识别准确率达到了93.20%,比YOLOv3高了26.49%;锚框约束策略能节约处理时间18.05%。重构模型具有轻量性和高准确性,适合于检测超大视场中的多尺度红外目标。  相似文献   

11.
在复杂场景中,许多现有的车牌检测和识别方面 的研究方法存在数据集单一且有限、算法复杂等问题。因此提出了一个端到端的统一网络: 残差-空间变换-连接时序分类融合的 车辆号牌检测识别网络(LPDR-RSCNet)。该网络结合残差神经网络、空间变压器网络和连 接主义者时间分类,联合训练检测和识别模块,以减少中间错误积累。通过在残差神经网络 提取特征过程中引入空间变换网络,使特征提取器具有平移不变性、旋转不变性和缩放不变 性;在分类器引入连接时序分类,可以自动识别图片标签和特征之间的关系。同时,还可以 适应可变长度序列的识别。在中国城市停车场数据集(CCPD)上进行了比较实验,CCPD是一 个大规模、多样的中文车牌数据集。实验证明LPDR-RSCNet模型在实际应用中可实现98.8% 的识别精度和34 fps的速度,并且相较于YOLO9000、Faster-RCNN、SSD300, 具有更好的检测准确度,可满足智能交通系统中对移动车辆实时车牌检测和识别的要求。  相似文献   

12.
魏亭  邱实  李晨  王锐 《电子学报》2018,46(9):2188-2193
违法占道拍摄出的单帧车辆图像具有数据量大、时效性强,检测环境复杂等特点.对其检测需要花费大量的人力与物力.并且人们在定位过程中,无法避免因经验、疲劳等方面的干扰,导致遗漏和错误定位.为此本文从视觉感知角度提出计算机多尺度辅助定位车牌算法.模拟视觉感知原理,从车辆特征、纹理特征、颜色特征尺度,逐次聚焦至车牌所在区域.提出了完整的单帧图像车牌定位流程.并且提出基于边界对的车牌区域准确定位算法.通过对实拍的交通图像实验,表明本算法对于正对的车辆有较高的准确率,符合人类视觉感知的过程可实时的对图像进行车牌检测,可同时检测单幅图片的多个车牌.但对于光线过暗、过强或者颜色失真的情况,仍需要进一步的研究.  相似文献   

13.
针对从单目视觉图像中估计深度信息时存在的预测精度不够准确的问题,该文提出一种基于金字塔池化网络的道路场景深度估计方法。该方法利用4个残差网络块的组合提取道路场景图像特征,然后通过上采样将特征图逐渐恢复到原始图像尺寸,多个残差网络块的加入增加网络模型的深度;考虑到上采样过程中不同尺度信息的多样性,将提取特征过程中各种尺寸的特征图与上采样过程中相同尺寸的特征图进行融合,从而提高深度估计的精确度。此外,对4个残差网络块提取的高级特征采用金字塔池化网络块进行场景解析,最后将金字塔池化网络块输出的特征图恢复到原始图像尺寸并与上采样模块的输出一同输入预测层。通过在KITTI数据集上进行实验,结果表明该文所提的基于金字塔池化网络的道路场景深度估计方法优于现有的估计方法。  相似文献   

14.
We present a novel method for real‐time automatic license plate detection in high‐resolution videos. Although there have been extensive studies of license plate detection since the 1970s, the suggested approaches resulting from such studies have difficulties in processing high‐resolution imagery in real‐time. Herein, we propose a novel cascade structure, the fastest classifier available, by rejecting false positives most efficiently. Furthermore, we train the classifier using the core patterns of various types of license plates, improving both the computation load and the accuracy of license plate detection. To show its superiority, our approach is compared with other state‐of‐the‐art approaches. In addition, we collected 20,000 images including license plates from real traffic scenes for comprehensive experiments. The results show that our proposed approach significantly reduces the computational load in comparison to the other state‐of‐the‐art approaches, with comparable performance accuracy.  相似文献   

15.
针对复杂道路场景下行人检测精度与速度难以提升的问题,提出一种融合多尺度信息和跨维特征引导的轻量级行人检测算法。首先以高性能检测器YOLOX为基础框架,构建多尺度轻量卷积并嵌入主干网络中,以获取多尺度特征信息。然后设计了一种端到端的轻量特征引导注意力模块,采用跨维通道加权的方式将空间信息与通道信息融合,引导模型关注行人的可视区域。最后为减少模型在轻量化过程中特征信息的损失,使用增大感受野的深度可分离卷积构建特征融合网络。实验结果表明,相比于其他主流检测算法,所提算法在KITTI数据集上达到了71.03%的检测精度和80 FPS的检测速度,在背景复杂、密集遮挡、尺度不一等场景中都具有较好的鲁棒性和实时性。  相似文献   

16.
针对现有关于车载限速牌识别算法所存在的检测速度慢、准确率低、无法应用于嵌入式系统等问题,提出了一种基于网络的实时限速牌识别算法。该算法基于SSD_MobileNet_v1网络框架进行改进,对原来的网络进行架构裁剪以去除冗余结构;同时引入了特征金字塔网络结构,并使用focal loss作为网络训练的分类损失。实验表明,提出的识别算法准确率可达88.11%,虽然略低于目前主流目标检测算法的检测精度,但是网络的每秒帧率(Frame per Second,FPS)可以达到35.13,拥有较快的检测速度,而权重文件只有24 MB 。因此,与其他算法相比,该算法不仅适合小型的嵌入式人工智能(Artifical Intelligence,AI)设备,而且更贴近真实车载场景下的识别。  相似文献   

17.
郑哲  雷琳  孙浩  匡纲要 《信号处理》2021,37(9):1669-1680
目标检测是遥感图像处理领域中一项重要而具有挑战性的任务,针对遥感图像中目标尺度差异较大以及方向分布随机等导致的遥感图像多尺度目标检测精度较低问题,本文提出一种基于特征增强和锚点框自动生成模块的目标检测方法。该方法在ResNet50网络中加入可操控的空洞卷积模块,并以此为基础设计了增强特征金字塔网络,提高网络对于目标多尺度特征表达能力。在区域建议网络中利用锚点框自动生成模块自主学习锚点框的位置和形状,以此获得更为稀疏和高质量的候选区域。本文在NWPU VHR-10数据集和飞机目标数据集上与多种基于卷积神经网络的目标检测算法进行对比实验,结果表明,本文所提方法在两个数据集上的mAP均为最优,分别为99.2%和87.7%,该方法具有较强的尺度自适应能力,有效的提高了遥感图像多尺度目标检测的精度。   相似文献   

18.
邝楚文  何望 《红外技术》2022,44(9):912-919
针对现有基于可见光的目标检测算法存在的不足,提出了一种红外和可见光图像融合的目标检测方法。该方法将深度可分离卷积与残差结构相结合,构建并列的高效率特征提取网络,分别提取红外和可见光图像目标信息;同时,引入自适应特征融合模块以自主学习的方式融合两支路对应尺度的特征,使两类图像信息互补;最后,利用特征金字塔结构将深层特征逐层与浅层融合,提升网络对不同尺度目标的检测精度。实验结果表明,所提网络能够充分融合红外和可见光图像中的有效信息,并在保障精度与效率的前提下实现目标识别与定位;同时,在实际变电站设备检测场景中,该网络也体现出较好的鲁棒性和泛化能力,可以高效完成检测任务。  相似文献   

19.
基于改进BP神经网络的车牌字符识别   总被引:1,自引:0,他引:1  
在分析了BP网络学习算法的缺陷的基础上引入动量项和遗传算法对BP网络学习算法进行改进,大大提高了BP网络的收敛速度.对车牌字符图像进行分割并利用sobel算子进行边缘检测来提取字符特征.然后利用改进的BP网络来自动识别车牌字符,提高了识别的速度和正确率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号