首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
在图像和视频序列中进行行人检测时,存在行人姿态和尺度多样及行人遮挡的问题,导致YOLOv4算法对部分行人检测不准确,存在误检和漏检的情况。针对这一问题,提出了基于YOLOv4改进算法的复杂行人检测模型。首先,使用改进的k-means聚类算法对行人数据集真实框尺寸进行分析,根据聚类结果确定先验框尺寸;其次,利用PANet进行多尺度特征融合,增强对多姿态、多尺度行人目标的敏感度,以提高检测效果;最后,针对行人遮挡问题,使用斥力损失函数使预测框尽可能地靠近正确的目标。实验表明,相比于YOLOv4和其他行人检测模型,新提出的检测模型具有更好的检测效果。  相似文献   

2.
针对YOLOv3算法在监控视频行人检测中对遮挡目标漏检率较高的问题,文中提出改进YOLOv3网络结构的遮挡行人检测算法.首先在网络全连接层引入空间金字塔池化网络,增强网络的多尺度特征融合能力.然后采用网络剪枝的方式,精简网络冗余结构,避免网络层数加深导致的退化和过拟合问题,同时减少参数量.在走廊行人数据集上进行多尺度训练,获得最优的权重模型.实验表明,文中方法在平均准确率和检测速度上都有所提升.  相似文献   

3.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

4.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

5.
针对多尺度目标检测准确率偏低的问题,提出了一种基于YOLOv5s改进的多尺度目标检测算法。在YOLOv5s主干网络与Neck网络之间融合CBAM模块,增强模型对多尺度目标重要特征信息的提取能力;同时,在模型的Head部分增加多尺度目标检测结构,提高不同尺度目标检测精度;训练时采用CIoU替代GIoU损失函数,以提高模型收敛能力,实现高精度目标定位。数据集来源于实际场景中采集并增强的4万余张图像。实验结果表明,改进后的模型对行人、车辆和人脸的多尺度目标检测平均精度达92.1%,相比未改进YOLOv5s算法提升了3.4%。模型的收敛性好,对密集场景的目标,小尺度目标检测准确度更加突出。  相似文献   

6.
自然生态环境下的节肢动物目标检测存在目标背景复杂、尺度差异大以及目标密集等特点,导致目标检测精度和准确率不高。为此,提出一种基于改进Faster RCNN模型的节肢动物目标检测方法 AROD RCNN。首先,设计一种有监督的并行空间与通道注意力(SPSCAT)机制,以提高复杂背景环境下节肢动物目标检测的准确率;然后,引入第二代可变形卷积重塑ResNet50中C1~C5块卷积层,并使用特征金字塔网络(FPN)对ResNet50中C2~C6块进行特征融合以解决目标尺度差异较大影响检测精度的问题;最后,通过密集局部回归(DLR)方法对回归阶段进行改进,从而提高模型回归的准确性。实验结果表明,该方法在ArTaxOr数据集上的各类别平均精度(mAP)达到了0.717,较原始Faster RCNN模型提高了0.453,而召回率达到了0.787。可见该方法能够有效解决目标遮挡和复杂背景等问题,在节肢动物密集目标与小目标检测中表现良好。  相似文献   

7.
针对景区内高密度行人检测中遮挡与小目标行人漏检率高、模型复杂度高、计算量大的问题,提出一种YOLOv5-GSPE改进算法模型,在保证精度的同时改善检测效果,降低模型复杂度。改进算法模型通过GhostConv优化主干网络中常规卷积(Conv)降低模型复杂度,并使用空洞卷积改善SPPF模块中池化操作带来的特征信息丢失,提升模型检测时效性,增强主干网络特征提取。提出一种增强的特征金字塔网络—PrFPN,使用同层连接进一步丰富原始输入特征的融合,减少特征提取过程中的特征损失。将引入正态分布计算优化后的EIoU损失函数作为边界框回归损失函数,提高边界框定位精度。实验结果表明,YOLOv5-GSPE算法模型对比YOLOv5s模型在保证检测时效性的情况下整体复杂度降低了12.51%,基于Pedestrian测试集的平均精度提升4.05%,基于WiderPerson测试集的平均精度提升3.28%,并降低了行人遮挡及小目标漏检率,改善了检测效果,该模型的可行性与有效性得到验证。  相似文献   

8.
针对目前已有的行人检测算法存在的误检率高、实时性差等问题,首先基于Yolov3-tiny网络模型进行算法改进,提出一种Ped-tiny网络模型。通过采用深度可分离卷积层替代部分原始网络中的传统卷积层来适当加深特征提取网络,同时增加一尺度的预测层,保证各个尺度的行人目标被精准检测到;其次结合GMM(混合高斯模型)的运动目标检测算法,该算法能有效利用目标运动时所产生的运动信息对行人目标进行检测、定位;最后将两算法的目标框进行对比,并对目标框进行修正。实验结果表明,在应对不同地铁场景、不同行人姿态和不同遮挡等情况时,文中方法具有更低的误检率,更高的检测精度并能满足检测的实时性要求。  相似文献   

9.
论文针对将遥感图像用于目标检测时地面车辆小目标的漏检和虚警问题,基于YOLOv3,对其躯干网络做如下改进:取消多尺度融合,独立地输出各个尺度上的特征图;在每个独立输出的尺度上引入dilation卷积和Inception-ResNet结构.基于VEDAI数据集,进行YOLOv3和改进模型的训练和测试,改进模型对车辆小目标...  相似文献   

10.
2020年新冠疫情爆发,佩戴口罩是有效抑制疫情反弹的重要措施之一,研究利用机器视觉技术检测人脸是否佩戴口罩有重要的现实意义。本文针对视频图像中人脸佩戴口罩时存在遮挡、检测目标较小、特征信息不明显、目标靠近群体不易识别等问题,提出一种基于DCN-SERes-YOLOv3的人脸佩戴口罩检测算法。首先,采用ResNet50与YOLOv3相结合的方式,将主干网络替换为ResNet50残差网络,为了平衡模型的精度与速度,对残差块中的卷积层改进并加入平均池化层,降低模型的损失与复杂度,提高检测速度;其次,将ResNet50残差网络中第4个残差块的常规卷积替换为DCN可变形卷积,提高模型适应人脸佩戴口罩时发生几何形变的能力;最后,引入SENet通道注意力机制,增强特征信息的表达能力。实验结果表明,本文算法的平均精度值高达95.36%,比传统YOLOv3算法提高了约4.1个百分点,且检测速度提高了11.7 fps,本文算法提高了检测人脸佩戴口罩任务的精度与速度,有较好的应用前景。  相似文献   

11.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

12.
针对交通标志识别模型检测速度与识别精度不均衡,以及受遮挡目标和小目标难以检测的问题,对YOLOv5模型进行改进,提出一种基于坐标注意力(CA)的轻量级交通标志识别模型。首先,通过在主干网络中融入CA机制,有效地捕获位置信息和通道之间的关系,从而更准确地获取感兴趣区域,避免过多的计算开销;然后,通过在特征融合网络中加入跨层连接,在不增加成本的情况下融合更多的特征信息,提高网络的特征提取能力,并改善对遮挡目标的检测效果;最后,引入改进的CIoU函数计算定位损失,以缓解检测过程中样本尺寸分布不均衡的现象,并进一步提高对小目标的识别精度。在TT100K数据集上应用所提模型时,识别精度达到了91.5%,召回率达到了86.64%,与传统的YOLOv5n模型相比分别提高了20.96%和11.62%,且帧处理速率达到了140.84 FPS。实验结果比较充分地验证了所提模型在真实场景中对交通标志检测与识别的准确性与实时性。  相似文献   

13.
针对无人机图像中违章建筑多为小目标且存在部分遮挡目标导致的检测速率慢、误检率高的问题,提出一种基于YOLOv5网络的违章建筑检测方法。在原来的批量标准化模块开始和结束处分别添加中心和缩放校准增强有效特征并形成更稳定的特征分布,加强网络模型的特征提取能力。用平滑处理后的KL(Kullback-Leibler)散度损失函数替换原损失函数置信度中的交叉熵,进一步提高模型的泛化性能。对YOLOv5的主干特征提取网络进行改进,将残差模块替换为LSandGlass模块减少信息损失并剔除低分辨率的特征层以减少语义丢失。实验结果表明,与原版的YOLOv5相比,改进后模型的训练更容易使得网络收敛,检测违章建筑的速度有了较大提升,同时提高了检测的精确度。  相似文献   

14.
针对视频序列中因脸部遮挡、漏检而造成的无法正确判断行人是否佩戴口罩的问题,提出一种基于改进YOLOv7与DeepSORT的佩戴口罩行人跟踪算法。该算法将口罩检测、行人检测与跟踪相结合,通过在YOLOv7的主干网络中添加注意力机制,增加浅层特征图,加强网络对小目标的感知能力,提高口罩检测与行人检测精度;帧内关系模块利用匈牙利算法进行帧内目标关联,对行人进行口罩佩戴标记;将方向差因素加入到DeepSORT算法的关联代价中,消除跟踪轨迹的历史预测方向和新检测速度方向不一致问题;使用改进的DeepSORT算法对行人进行跟踪,并对每条轨迹进行口罩佩戴标记更新,实现对佩戴口罩与未佩戴口罩行人的跟踪。实验结果表明,改进的YOLOv7网络平均检测精度mAP50相比原始算法提升了3.83个百分点;在MOT16数据集上,该算法的跟踪准确性MOTA相较DeepSORT算法提高了17.1个百分点,跟踪精度MOTP提高了2.6个百分点。与检测算法相比,提出的算法能够跟踪到更多的行人是否佩戴了口罩,具有更好的效果。  相似文献   

15.
Safety helmet-wearing detection is an essential part of the intelligent monitoring system. To improve the speed and accuracy of detection, especially small targets and occluded objects, it presents a novel and efficient detector model. The underlying core algorithm of this model adopts the YOLOv5 (You Only Look Once version 5) network with the best comprehensive detection performance. It is improved by adding an attention mechanism, a CIoU (Complete Intersection Over Union) Loss function, and the Mish activation function. First, it applies the attention mechanism in the feature extraction. The network can learn the weight of each channel independently and enhance the information dissemination between features. Second, it adopts CIoU loss function to achieve accurate bounding box regression. Third, it utilizes Mish activation function to improve detection accuracy and generalization ability. It builds a safety helmet-wearing detection data set containing more than 10,000 images collected from the Internet for preprocessing. On the self-made helmet wearing test data set, the average accuracy of the helmet detection of the proposed algorithm is 96.7%, which is 1.9% higher than that of the YOLOv5 algorithm. It meets the accuracy requirements of the helmet-wearing detection under construction scenarios.  相似文献   

16.
针对传统铁路异物检测方法中实时性不高、检测精度不够的问题,提出一种基于YOLOv3网络的高铁异物入侵的检测算法.为提高YOLOv3网络对图片特征的利用能力,利用可切换空洞卷积替代特征提取网络中的前四个3×3卷积,增加了卷积的感受野.然后为提升小物体检测精度,改进FPN结构,从YOLOv3特征提取网络中第二次下采样输出的...  相似文献   

17.
Pedestrian detection is widely used in intelligent supervision and assisted driving. With the development of deep learning, the accuracy of pedestrian detection has been greatly improved. In actual scenes, there are often pedestrians who are far away from the camera. Such pedestrians usually have small image sizes, while existing algorithms still have defects such as missed detection for similar small-scale pedestrian detection, which will reduce the accuracy of operation. Therefore, this paper designs a Three ResNet Blocks based on CenterNet detection model. Aiming at the limited ability of a single feature extraction block to extract semantic information at different levels in the network, this paper proposes Three ResNet Blocks, which is a simple and effective multi-block group. This block group integrates three different basic blocks, each of which extracts pedestrian information separately to enhance information flow in the network structure and make detection results more accurate. In addition, combined with the advantages of activation function in the model expression, the relu6 activation function is introduced to improve the performance of the detector by preventing numerical explosion being sensitive to decimal. Comprehensive experiments on pedestrian detection datasets (Caltech and ETH) show that the proposed method exhibits excellent accuracy and detection speed, especially for small-scale pedestrian detection.  相似文献   

18.
目的 行人检测是目标检测中的一个基准问题,在自动驾驶等场景有着较大的实用价值,在路径规划和智能避障方面发挥着重要作用。受限于现实的算法功耗和运行效率,在自动驾驶场景下行人检测存在检测速度不佳、遮挡行人检测精度不足和小尺度行人漏检率高等问题,在保证实时性的前提下设计一种适合行人检测的算法,是一项挑战性的工作。方法 本文旨在解决自动驾驶场景中耗时长、行人遮挡和小尺度行人检测结果精度低的问题,提出了一种尺度注意力并行检测算法(scale-aware and efficient object detection,Scale-aware EfficientDet):在特征提取与检测中使用了EfficientDet的主干网络,保证算法效率和功耗的平衡;在行人遮挡方面,为了提高模型对遮挡现象的检测精度,引入了可以增强行人与其他物体之间特征差异的损失函数;在提高小目标行人检测精度方面,采用scale-aware双路网络算法来增加对小目标行人的检测精度。结果 本文选择Caltech行人数据集作为对比数据集,选取YOLO(you only look once)、YOLOv3、SA-FastRCNN(scale-aware fast region-based convolutional neural network)等算法进行对比,在运行效率方面,本文算法在连续输入单帧图像的情况下达到了35帧/s,多图像输入时达到了70帧/s的工作效率;在模型精度测试中,本文算法也略胜一筹。本文算法应用于2020年中国智能汽车大赛中,在安全避障环节皆获得满分。结论 本文设计的尺度感知的行人检测算法,在EfficientDet高性能检测器的基础上,通过结合损失函数、scale-aware双路子网络的改进,进一步提升了本文检测器的鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号