首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 140 毫秒
1.
目的 为了有效解决传统行人检测算法在分辨率低、行人尺寸较小等情境下检测精度低的问题,将基于区域全卷积网络(region-based fully convolutional networks,R-FCN)的目标检测算法引入到行人检测中,提出一种改进R-FCN模型的小尺度行人检测算法。方法 为了使特征提取更加准确,在ResNet-101的conv5阶段中嵌入可变形卷积层,扩大特征图的感受野;为提高小尺寸行人检测精度,在ResNet-101中增加另一条检测路径,对不同尺寸大小的特征图进行感兴趣区域池化;为解决小尺寸行人检测中的误检问题,利用自举策略的非极大值抑制算法代替传统的非极大值抑制算法。结果 在基准数据集Caltech上进行评估,实验表明,改进的R-FCN算法与具有代表性的单阶段检测器(single shot multiBox detector,SSD)算法和两阶段检测器中的Faster R-CNN(region convolutional neural network)算法相比,检测精度分别提高了3.29%和2.78%;在相同ResNet-101基础网络下,检测精度比原始R-FCN算法提高了12.10%。结论 本文提出的改进R-FCN模型,使小尺寸行人检测精度更加准确。相比原始模型,改进的R-FCN模型对行人检测的精确率和召回率有更好的平衡能力,在保证精确率的同时,具有更大的召回率。  相似文献   

2.
针对目前基于深度学习的实例级物体检测算法对受遮挡物体的检测效果较差的问题,文中引入对抗学习的训练策略,提出改进的对抗生成式区域全卷积网络算法(AGR-FCN).以区域全卷积网络(R-FCN)为基准框架,添加为训练样本生成遮挡特征的对抗性遮挡丢弃网络(AMDN).通过R-FCN与AMDN间对抗学习的训练策略,提升R-FCN对遮挡物体的特征学习能力,优化整体实例级物体检测性能.在公共数据库GMU Kitchen和自制数据库BHGI上的实验表明,在复杂多变的非结构化环境中,如随机变化的不同光照、尺度、焦比、视角与姿态、遮挡等条件下,AGR-FCN的平均检测精度较高.  相似文献   

3.
城市道路场景下的行人目标尺寸变化大,并且人群密集容易引起遮挡问题,增加了行人检测难度。为了提高城市道路区域行人检测的准确性和实时性,更好应对驾驶场景的实际需求,对You Only Look Once(YOLO)方法进行改进。原YOLO模型分为行人特征提取阶段和行人坐标回归阶段,将浅层特征与深层特征多尺度融合,增加骨架网络的特征提取效果;添加注意力机制,在特征融合后加入空间通道增强模块,并且将GIoU损失引入网络训练过程,提高对遮挡目标的识别能力;结合行人尺寸,提出CrossYOLO层对网络宽度进行调整,加快了模型运算速度。在Caltech行人基准数据集下进行验证实验,结果表明YOLO-Person模型与原YOLO以及其他流行方法相比,对小目标和遮挡目标误检率更低,并且速度更快,具有一定的实际应用价值。  相似文献   

4.
朱繁  王洪元  张继 《计算机应用》2019,39(11):3210-3215
针对复杂场景下行人检测效果差的问题,采用基于深度学习的目标检测中领先的研究成果,提出了一种基于改进Mask R-CNN框架的行人检测算法。首先,采用K-means算法对行人数据集的目标框进行聚类得到合适的长宽比,通过增加一组长宽比(2:5)使12种anchors适应图像中行人的尺寸;然后,结合细粒度图像识别技术,实现行人的高定位精度;其次,采用全卷积网络(FCN)分割前景对象,并进行像素预测获得行人的局部掩码(上半身、下半身),实现对行人的细粒度检测;最后,通过学习行人的局部特征获得行人的整体掩码。为了验证改进算法的有效性,将其与当前具有代表性的目标检测方法(如更快速的区域卷积神经网络(Faster R-CNN)、YOLOv2、R-FCN)在同数据集上进行对比。实验结果表明,改进的算法提高了行人检测的速度和精度,并且降低了误检率。  相似文献   

5.
伍鹏瑛    张建明    彭建    陆朝铨   《智能系统学报》2019,14(2):306-315
针对真实场景下的行人检测方法存在漏检、误检率高,以及小尺寸目标检测精度低等问题,提出了一种基于改进SSD网络的行人检测模型(PDIS)。PDIS通过引出更底层的输出特征图改进了原始SSD网络模型,并采用卷积神经网络不同层输出的抽象特征对行人目标分别做检测,融合多层检测结果,提升了小目标行人的检测性能。此外,针对数据集样本多样性能有效地提升检测算法的泛化能力,本文采集了不同光照、姿态、遮挡等复杂场景下的行人图像,对背景比较复杂的INRIA行人数据集进行了扩充,在扩增的行人数据集上训练的PDIS模型,提高了在真实场景下的行人检测精度。实验表明:PDIS在INRIA测试集上测试结果达到93.8%的准确率,漏检率低至7.4%。  相似文献   

6.
针对跨相机网络视频中存在的遮挡、空间不对齐、背景杂波等因素导致视频行人重识别效果较差的问题,提出一种基于图卷积网络(GCN)与自注意力图池化(SAGP)的视频行人重识别方法。首先,通过区块关系图建模挖掘视频中帧间不同区域的关联信息,并利用GCN优化逐帧图像中的区域特征,缓解遮挡和不对齐等问题;然后,通过SAGP机制去除对行人特征贡献较低的区域,避免背景杂波区域的干扰;最后,提出一种加权损失函数策略,使用中心损失优化分类学习结果,并使用在线软挖掘和类感知注意力(OCL)损失解决难样本挖掘过程中可用样本未被充分利用的问题。实验结果表明,在MARS数据集上,相较于次优的AITL方法,所提方法的平均精度均值(mAP)与Rank-1分别提高1.3和2.0个百点。所提方法能够较好地利用视频中的时空信息,提取更具判别力的行人特征,提高行人重识别任务的效果。  相似文献   

7.
为了解决遗弃物检测过程中的遮挡以及其他静止目标干扰问题,提出了一种有效的遗弃物检测方法。采用选择性更新策略更新混合高斯背景模型,从而得到包含运动目标以及静止目标的前景;采用双阈值的方法提取静止目标,并通过目标静止后累积的证据及允许遮挡时间参数处理虚警和遮挡问题。通过对静止目标区块的特征提取,排除静止行人及车辆的干扰以实现遗弃物的检测。多场景下的实验分析表明,该方法在复杂背景条件下达到了良好的检测性能。  相似文献   

8.
目的 行人检测是目标检测中的一个基准问题,在自动驾驶等场景有着较大的实用价值,在路径规划和智能避障方面发挥着重要作用。受限于现实的算法功耗和运行效率,在自动驾驶场景下行人检测存在检测速度不佳、遮挡行人检测精度不足和小尺度行人漏检率高等问题,在保证实时性的前提下设计一种适合行人检测的算法,是一项挑战性的工作。方法 本文旨在解决自动驾驶场景中耗时长、行人遮挡和小尺度行人检测结果精度低的问题,提出了一种尺度注意力并行检测算法(scale-aware and efficient object detection,Scale-aware EfficientDet):在特征提取与检测中使用了EfficientDet的主干网络,保证算法效率和功耗的平衡;在行人遮挡方面,为了提高模型对遮挡现象的检测精度,引入了可以增强行人与其他物体之间特征差异的损失函数;在提高小目标行人检测精度方面,采用scale-aware双路网络算法来增加对小目标行人的检测精度。结果 本文选择Caltech行人数据集作为对比数据集,选取YOLO(you only look once)、YOLOv3、SA-FastRCNN(scale-aware fast region-based convolutional neural network)等算法进行对比,在运行效率方面,本文算法在连续输入单帧图像的情况下达到了35帧/s,多图像输入时达到了70帧/s的工作效率;在模型精度测试中,本文算法也略胜一筹。本文算法应用于2020年中国智能汽车大赛中,在安全避障环节皆获得满分。结论 本文设计的尺度感知的行人检测算法,在EfficientDet高性能检测器的基础上,通过结合损失函数、scale-aware双路子网络的改进,进一步提升了本文检测器的鲁棒性。  相似文献   

9.
杨婉香  严严  陈思  张小康  王菡子 《软件学报》2020,31(7):1943-1958
行人重识别是指在多个非重叠摄像头拍摄的场景下,给定一幅查询行人图像,从大规模行人图像库中检索出具有相同身份的行人图像,是一类特殊的图像检索任务.随着深度学习的不断发展,行人重识别方法的性能得到了显著提升.但是行人重识别在实际应用中经常遭遇遮挡问题(例如,背景遮挡、行人互相遮挡等).由于遮挡图像不仅丢失了部分目标信息,而且引入了额外的干扰,使得现有方法往往难以学习到鲁棒的特征表示,从而导致识别性能严重下降.最近,生成对抗网络在各类计算机视觉任务上展现出强大的图像生成能力.受到生成对抗网络的启发,提出了一种基于多尺度生成对抗网络的遮挡行人重识别方法.首先,利用成对的遮挡图像和非遮挡图像训练一个多尺度生成器和一个判别器.多尺度生成器能够对随机遮挡区域进行去遮挡操作,生成高质量的重构图;而判别器能够区分输入图像是真实图像还是生成图像.其次,利用训练好的多尺度生成器,生成去除随机遮挡的训练图像,添加到原始训练图像集,用于增加训练样本的多样性.最后,基于此扩充训练图像集,训练分类识别模型,有效地提高模型在测试图像集上的泛化性.在多个有挑战性的行人重识别数据集上的实验结果,验证了所提出方法的有效性.  相似文献   

10.
前方车辆尾灯检测是自动驾驶中环境感知的研究热点,为在复杂城市环境下实时检测车辆尾灯,将基于区域的全卷积网络(Region-based Fully Convolutional Networks,R-FCN)引入尾灯检测,提出了一种基于多尺度级联R-FCN的车辆尾灯检测算法。通过网络中的跨层连接融合尾灯的底层特征和高层语义,并加入批次归一化层加快网络的收敛速度,得到改进的R-FCN子网络,将一系列在不同交并比输入数据上训练的R-FCN子网络级联得到最终的检测网络。同时预测阶段采用改进的非极大值抑制获得最精准的检测结果。检测结果表明,该方法在CVPR数据集上获得总体94.04%的平均精度,单张图片平均检测耗时31 ms,在检测速度和精度上均有较好的性能。  相似文献   

11.
为了解决利用传统的机器学习方法来检测带纹理透明塑料裂痕的检测精度和识别率不高的问题,提出一种改进的基于区域的全卷积网络(Region-based Fully Convolutional Networks,R-FCN)检测方法,通过对R-FCN中的残差网络(Residual Network,ResNet)特征提取网络进行混合尺度感受野融合处理,弥补了原网络对微小裂痕敏感度不高的缺点。实验表明,改进后的R-FCN检测方法的裂痕检测精度比基于传统机器学习支持向量机(Support Vector Machine,SVM)检测方法的裂痕检测准确率高20%左右,比未改进的R-FCN检测方法的检测准确率高8%,证明了该方法的有效性。  相似文献   

12.
行人图像在行人再识别中常通过行人检测器自动检测获得,不仅包含行人主体,还包含一些干扰信息(比如,背景、遮挡等)。在基于注意力机制的行人再识别中,增强了对具有显著性特征行人部件的关注,削弱了对带有干扰信息部件的关注,有利于提取更具辨别力的行人特征表示。在深度学习中,卷积神经网络通过对特征映射重新赋权值,得到注意力特征,提出了一种新颖的基于聚类的全局注意力模块(cluster-based global attention module,CGAM)。在CGAM中,将注意力权重学习过程重新考虑为聚类中心学习过程,将特征映射中的空间位置点视为特征节点,通过聚类算法得到每个特征节点的重要分数并进行归一化后作为注意力权重。利用改进的Resnet50作为基本框架,嵌入注意力模块,得到注意力网络,仅使用了全局分支,具有简单高效特点。综上,基于聚类的注意力设计不仅充分利用了特征节点之间的成对相关性,而且挖掘了丰富的全局结构信息,得到一组更可信的注意力权重。实验结果表明,提出的行人再识别算法在Market-1501和DukeMTMC-reID两个流行数据集上均有显著的效果。  相似文献   

13.
针对大规模拥挤场景视频中行人目标小、行人遮挡和行人交叠而导致的检测困难等问题,本文将逐像素预测目标检测框架—全卷积单阶段目标检测FCOS(fully convolutional one-stage object detection)应用于行人检测,提出一种改进的主干网络用于提取行人特征,通过增加尺度回归实现目标行人的多...  相似文献   

14.
自然生态环境下的节肢动物目标检测存在目标背景复杂、尺度差异大以及目标密集等特点,导致目标检测精度和准确率不高。为此,提出一种基于改进Faster RCNN模型的节肢动物目标检测方法 AROD RCNN。首先,设计一种有监督的并行空间与通道注意力(SPSCAT)机制,以提高复杂背景环境下节肢动物目标检测的准确率;然后,引入第二代可变形卷积重塑ResNet50中C1~C5块卷积层,并使用特征金字塔网络(FPN)对ResNet50中C2~C6块进行特征融合以解决目标尺度差异较大影响检测精度的问题;最后,通过密集局部回归(DLR)方法对回归阶段进行改进,从而提高模型回归的准确性。实验结果表明,该方法在ArTaxOr数据集上的各类别平均精度(mAP)达到了0.717,较原始Faster RCNN模型提高了0.453,而召回率达到了0.787。可见该方法能够有效解决目标遮挡和复杂背景等问题,在节肢动物密集目标与小目标检测中表现良好。  相似文献   

15.
针对煤矿井下环境恶劣、光照差、背景混杂、行人模糊、行人多尺度等问题,提出了一种改进的Faster RCNN煤矿井下行人检测方法,使用深度卷积神经网络代替传统的手工设计特征方式自动地从图片中提取特征。利用深度学习通用目标检测框架Faster RCNN,以Faster RCNN算法为基础,对候选区域网络(Region Proposals Network,RPN)结构进行了改进,提出了一种“金字塔RPN”结构,来解决井下行人存在的多尺度问题;同时算法中加入了特征融合技术,将不同卷积层输出的特征图进行融合,增强煤矿井下模糊、遮挡和小目标行人的检测性能。实验结果表明:改进的Faster RCNN可以有效解决井下行人检测问题,在井下行人数据集上获得了90%的检测准确率,并在公测数据集VOC 07上对改进算法进行了验证。  相似文献   

16.
糖尿病眼底病变(Diabetic Retinopathy,DR)是糖尿病患者常见的致盲疾病,可使用深度学习算法对患者的糖尿病眼底图片进行图像识别,实现对糖尿病眼底病变的辅助诊断。针对以往普通卷积神经网络只能进行分类和输入尺寸固定的问题,提出了基于目标检测的区域全卷积网络(Region-based Fully Convolutional Networks,R-FCN)算法,实现同时对任意尺寸输入的糖尿病眼底图片的分类和病变区域检测。针对原始R-FCN算法对小目标(极小的出血点和血管瘤)检测困难的问题,对R-FCN算法做了一定的改进,加入特征金字塔网络(Feature Pyramid Networks,FPN)结构,升级主干网络,修改区域建议网络(Region Proposal Network,RPN)。实现结果表明,改进后的RFCN算法能以很高的正确率实现对糖尿病眼底图片的五级分类(健康、轻度、中度、重度、增殖)和病变区域检测(血管瘤、眼底出血、玻璃体出血)。  相似文献   

17.
针对行人在部分自然场景图像中所占比例较小(以下简称小目标),提取的特征容易丢失,检测准确率低的问题,提出基于候选区域和并行卷积神经网络(Parallel Convolutional Neural Network,PCNN)的行人检测方法。对于候选区域提取部分,改进了选择性搜索,使其更符合行人这一类别的候选区域提取;利用Edge Boxes对选择性搜索提取的大量预候选区域进行过滤,最终得到数量少、质量高的候选区域。在利用卷积神经网络(Convolutional Neural Network,CNN)进行特征提取时,针对深层卷积神经网络能够提取到更丰富更抽象的高层特征,但同时对于小目标容易造成特征丢失的问题,加入浅层网络组成并行卷积神经网络(Parallel Convolutional Neural Network,PCNN)提取深、浅层特征输出。最后将所提方法应用于行人检测,实验结果表明,所提方法对于小目标的检测准确率有较好的提升。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号