首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
行人检测是利用计算机视觉技术判断图像或者视频序列中是否存在行人并给予精确定位。针对行人检测在密集场景下普遍存在的行人间遮挡问题,提出基于迭代Faster R-CNN的密集行人检测模型,利用一种IterDet迭代方案对Faster R-CNN进行改进,有效解决非极大值抑制(NMS)算法及其改进在选择精确度和召回率之间平衡点的难题。同时利用递归金字塔结构(RFP)进一步增强模型提取特征能力。在具有挑战性的WiderPerson和CrowdHuman数据集上进行训练和验证,实验结果表明,该模型相比Faster R-CNN在精度和召回率显著提升的同时,漏检率也明显降低。尤其在WiderPerson数据集上召回率、精度、漏检率等性能指标分别达到了97.65%、91.29%、40.43%的SOTA结果。  相似文献   

2.
针对多尺度行人检测的问题,本文提出一种基于融合特征金字塔网络(Feature pyramid networks,FPN)和Faster R-CNN(Faster region convolutional neural network)的行人检测算法。首先,对FPN和区域建议网络(Region proposal networks,RPN)进行融合;然后,对FPN和Fast R-CNN进行融合;最后,在Caltech数据集、KITTI数据集和ETC数据集上分别对融合FPN和Faster R-CNN的行人检测算法进行训练和测试。该算法在Caltech数据集、KITTI数据集和ETC数据集上的mAP (mean Average Precision)分别达到69.72%, 69.76%和89.74%。与Faster R-CNN相比,该算法不仅提高了行人检测精度,而且在多尺度行人检测的问题上也获得了较为满意的检测效果。  相似文献   

3.
《微型机与应用》2017,(7):39-42
针对雨天环境下监控视频因雨水噪声、图像的灰度值削弱使行人轮廓特征丢失而出现的目标行人漏检误检情况,建立了一种基于HOG-SIFT特征稀疏表示的行人检测算法。通过直方图均衡化降低雨水噪声;提取图像HOG-SIFT融合特征表征视频图像中的行人信息,减少轮廓特征的丢失;利用稀疏表示降低融合特征的维数,减小计算量并保留有效的行人特征,结合Ada Boost分类器降低漏检率和误检率。实验结果表明,该算法在雨天环境下有效地提高了行人检测的准确率。  相似文献   

4.
针对远距离及小尺寸行人难以检测,极易受到复杂背景的干扰,且分辨率低、有效信息少等问题,提出一种在复杂背景下结合Faster R-CNN检测远距离及小尺寸行人的改进算法.运用混合高斯模型,解决复杂背景干扰的问题,及时去除视频的背景信息,提取视频图像的前景.为进一步解决分辨率低且有效信息少的问题,采用双线性二次插值方法增强图像的分辨率,采用多尺度特征融合弥补有效信息的不足.实验结果表明,不同场景下行人检测精度均有所提升,其中远距离及小尺寸行人的检测精度提升更为明显.  相似文献   

5.
针对传统HOG特征的行人检测方法中因遮挡及复杂环境存在较高漏检误检情况,建立了一种基于HOG和局部自相似(LSS)特征融合的行人检测算法。利用LSS反映图像内在几何布局和形状属性的特性,用主成分分析(PCA)将HOG和LSS两类特征在实数域降维,再将两种特征组合成新特征,结合线性SVM分类器进行行人检测。实验采用INRIA数据库和Daimler数据库作为训练集训练SVM,用730幅监控视频帧图片作测试集,将该方法与基于传统HOG特征的行人检测方法做对比,结果表明该方法平均漏检误检率降低16%,检测效果优于基于传统HOG特征的行人检测方法。  相似文献   

6.
随着无人驾驶和智能驾驶技术的发展,计算机视觉对视频图像检测的实时性和准确性要求也越来越高.现有的行人检测方法在检测速度和检测精度两个方面难以权衡.针对此问题,提出一种改进的Faster R-CNN模型,在Faster R-CNN的主体特征提取网络模块中加入SE网络单元,进行道路行人检测.这种方法不仅能达到相对较高的准确率,用于视频检测时还能达到一个较好的检测速率,其综合表现比Faster R-CNN模型更好.在INRIA数据集和私有数据集上的实验表明,模型的mAP最好成绩能达到93.76%,最高检测速度达到了13.79 f/s.  相似文献   

7.
目的 行人检测在自动驾驶、视频监控领域中有着广泛应用,是一个热门的研究话题。针对当前基于深度学习的行人检测算法在分辨率较低、行人尺度较小的情况下存在误检和漏检问题,提出一种融合多层特征的多尺度的行人检测算法。方法 首先,针对行人检测问题,删除了深度残差网络的一部分,仅采用深度残差网络的3个区域提取特征图,然后采用最邻近上采样法将最后一层提取的特征图放大两倍后再用相加法,将高层语义信息丰富的特征和低层细节信息丰富的特征进行融合;最后将融合后的3层特征分别输入区域候选网络中,经过softmax分类,得到带有行人的候选框,从而实现行人检测的目的。结果 实验结果表明,在Caltech行人检测数据集上,在每幅图像虚警率(FPPI)为10%的条件下,本文算法丢失率仅为57.88%,比最好的模型之一——多尺度卷积神经网络模型(MS-CNN)丢失率(60.95%)降低3.07%。结论 深层的特征具有高语义信息且感受野较大的特点,而浅层的特征具有位置信息且感受野较小的特点,融合两者特征可以达到增强深层特征的效果,让深层的特征具有较为丰富的目标位置信息。融合后的多层特征图具有不同程度的细节和语义信息,对检测不同尺度的行人有较好的效果。所以利用融合后的特征进行行人检测,能够提高行人检测性能。  相似文献   

8.
在图像和视频序列中进行行人检测时,存在行人姿态和尺度多样及行人遮挡的问题,导致YOLOv4算法对部分行人检测不准确,存在误检和漏检的情况。针对这一问题,提出了基于YOLOv4改进算法的复杂行人检测模型。首先,使用改进的k-means聚类算法对行人数据集真实框尺寸进行分析,根据聚类结果确定先验框尺寸;其次,利用PANet进行多尺度特征融合,增强对多姿态、多尺度行人目标的敏感度,以提高检测效果;最后,针对行人遮挡问题,使用斥力损失函数使预测框尽可能地靠近正确的目标。实验表明,相比于YOLOv4和其他行人检测模型,新提出的检测模型具有更好的检测效果。  相似文献   

9.
水下遮挡目标的检测与识别对海洋资源的勘探有着重大意义.针对现有方法中存在检测准确率低以及漏检的问题,将优化的特征复原通道(GAN)与改进的Faster R-CNN进行融合,提出了一种水下遮挡目标检测模型.实验表明,方法相较于Faster R-CNN、SSD、YOLO等现有模型均有不同程度提高,同时降低了漏检个数.  相似文献   

10.
行人检测是图像处理、计算机视觉等方面研究的重要环节,通常用于视频监控和智能车辆等领域。行人检测图像易受到背景的影响,常用的帧差法及单纯训练分类器法在行人检测中存在着准确率低、分类训练算法复杂、实时性差等问题。首先采用改进型帧差法获取行人运动信息,然后利用直方图坐标对应划分出运动区域,最后通过训练双特征级联分类器对运动区域进行检测识别。实验结果表明,本方法可以有效减少误检和漏检现象,检测时间平均减少了32.77ms,检测准确率平均提高了10%以上,因此本方法有效提高了识别准确率和识别速度。  相似文献   

11.
为解决目前目标检测算法在微小行人的识别与定位过程中准确率较低的问题,提高微小行人检测能力,提出一种基于自适应融合与特征细化的微小行人检测算法AF-RetinaNet.首先,将特征增强模块与ResNet相结合构建特征提取网络,采用并行结构获得增强特征;其次,使用上下文自适应学习模块,通过获得目标上下文的特征信息,从而关注相似特征的差异性,缓解误检问题;最后,构造具有图像超分思想的特征细化模块,对目标特征信息进行放大重构,优化小目标的特征表达能力,缓解漏检问题.在TinyPerson数据集上,AF-RetinaNet算法的检测精度达到56.78%,漏检率达到85.38%.与基于RetinaNet算法的研究基准相比,检测精度提高5.57%,漏检率降低3.67%.实验结果表明,该模型能有效提高对微小行人的检测和识别精度.  相似文献   

12.
针对现有井下人员目标检测方法因网络较深、计算量庞大而不能达到实时检测效果的问题,提出了一种基于参数轻量化的井下人体实时检测算法。采用深度可分离卷积模块和倒置残差模块构建轻量级特征提取网络:通过深度可分离卷积压缩参数量和运算量,提升特征提取网络的运算速度;倒置残差模块通过更高维度的张量来提取足够多的信息,保证特征提取网络的精确度。结合轻量级特征提取网络和SSD多尺度检测方法建立井下人体实时检测模型,该模型在轻量级倒置残差特征提取网络的基本结构上增添传统卷积层至27层进行卷积操作,其中6层特征图被抽取进行多尺度预测,测试结果表明,该模型的大小为18MB,帧率约为35帧/s,性能优于常用的VGG16+Faster R-CNN模型和VGG16+多尺度检测模型。为适应井下特定环境的目标检测需求,设计了基于Faster R-CNN的人体数据半自动标注方法,可显著减少人工工作量,提高井下人体检测精度。利用矿工服装颜色信息对检测结果框进行二次筛选,剔除将背景检测为人体的误检框。测试结果表明,该算法实现了采煤工作面人员实时定位检测及框选,精度达92.86%,召回率为98.11%,有效解决了井下人员漏检及误检问题。  相似文献   

13.
目的 卷积神经网络广泛应用于目标检测中,视频目标检测的任务是在序列图像中对运动目标进行分类和定位。现有的大部分视频目标检测方法在静态图像目标检测器的基础上,利用视频特有的时间相关性来解决运动目标遮挡、模糊等现象导致的漏检和误检问题。方法 本文提出一种双光流网络指导的视频目标检测模型,在两阶段目标检测的框架下,对于不同间距的近邻帧,利用两种不同的光流网络估计光流场进行多帧图像特征融合,对于与当前帧间距较小的近邻帧,利用小位移运动估计的光流网络估计光流场,对于间距较大的近邻帧,利用大位移运动估计的光流网络估计光流场,并在光流的指导下融合多个近邻帧的特征来补偿当前帧的特征。结果 实验结果表明,本文模型的mAP(mean average precision)为76.4%,相比于TCN(temporal convolutional networks)模型、TPN+LSTM(tubelet proposal network and long short term memory network)模型、D(&T loss)模型和FGFA(flow-guided feature aggregation)模型分别提高了28.9%、8.0%、0.6%和0.2%。结论 本文模型利用视频特有的时间相关性,通过双光流网络能够准确地从近邻帧补偿当前帧的特征,提高了视频目标检测的准确率,较好地解决了视频目标检测中目标漏检和误检的问题。  相似文献   

14.
《软件》2019,(10):53-57
运用YOLO(You Only Look Once)目标检测算法解决行车过程中汽车智能驾驶系统中对于行人目标的检测问题。针对雾天交通环境下,YOLO算法受天气影响检测精度不高的问题,运用图像去雾技术对数据进行预处理,并训练出了针对雾天环境下适用于行人检测的网络模型。实验结果表明,使用单尺度的Retinex去雾算法训练得到的网络结构YOLO-SSR降低了漏检率和误检率,提高了定位准确性使得精度由77.05%提高到80.27%,并通过对视频进行取帧处理的方法解决单尺度Retinex算法针对视频检测速度慢的问题使其满足实际需求。  相似文献   

15.
行人检测是目标检测中的一个重要研究方向。针对行人检测算法在复杂场景和目标太小情况下漏检的问题,在Faster R-CNN检测算法的基础上,提出一种基于浅层特征融合引导的深层网络行人检测。通过HOG特征、改进的LBP特征与深度网络特征融合获得准确的行人特征,在国际上广泛使用的行人数据集上进行一系列实验。结果表明,所提出的改进方法在检测准确率和速率方面都有所提高。  相似文献   

16.
复杂城市道路环境下运动车辆目标检测是现代智能交通系统的重要组成部分.依据多帧视频图像序列的时空连续变化关系,通过构建多帧视频图像序列时空关系模型(Time-space model——TSM),进一步完善车底阴影特征检测算法,并与AdaBoost算法相结合,实现运动车辆目标检测的候选区域筛选与验证处理,以降低车辆检测的误检率,提高准确率.在白天复杂城市道路环境下,实验结果显示基于TSM的车辆检测,检测准确率为92.1%,误检率为4.3%,图像分辨率为1920*1088,单帧图像平均处理时间76 ms.基于TSM的车辆检测显著改进了AdaBoost和车底阴影特征检测算法存在的误检率高,效率低问题,满足城市道路环境下车辆检测准确率和鲁棒性的要求.  相似文献   

17.
毛羽瑕疵由于尺寸微小,极易发生漏检和误检,是化纤丝饼检测中的难点。为了准确高效地检测丝饼的外观瑕疵,搭建了基于显微视觉的毛羽瑕疵图像采集平台,提出加入注意力机制和特征融合的瑕疵检测算法(CenterNet-CBAM)。采集了毛羽和断线两类易混淆的目标图像,构建基于CenterNet-CBAM的目标检测模型,并与CenterNet、YOLOv4、Faster R-CNN、SSD四种目标检测算法进行比较。实验结果表明,工业显微相机能有效获取毛羽特征,CenterNet-CBAM在毛羽、断线两类目标的实验检测结果的准确率分别为94.00%和93.57%,召回率分别为86.75%和92.16%,AP值分别为92.93%和92.91%,两类mAP值均为92.92%,优于其他算法,验证了实验方法的有效性。  相似文献   

18.
提出一种应用于视频序列图像的新的嘴部检测算法.该算法能克服现有的嘴部检测算法的缺陷,利用视频中相邻帧图像之间的高度相关性,能探测到现有算法中的误检、漏检,并自动作出纠正,得到正确的人嘴检测结果。实验结果显示,该算法能大大提高视频序列图像中嘴部检测的正确率。  相似文献   

19.
伍鹏瑛    张建明    彭建    陆朝铨   《智能系统学报》2019,14(2):306-315
针对真实场景下的行人检测方法存在漏检、误检率高,以及小尺寸目标检测精度低等问题,提出了一种基于改进SSD网络的行人检测模型(PDIS)。PDIS通过引出更底层的输出特征图改进了原始SSD网络模型,并采用卷积神经网络不同层输出的抽象特征对行人目标分别做检测,融合多层检测结果,提升了小目标行人的检测性能。此外,针对数据集样本多样性能有效地提升检测算法的泛化能力,本文采集了不同光照、姿态、遮挡等复杂场景下的行人图像,对背景比较复杂的INRIA行人数据集进行了扩充,在扩增的行人数据集上训练的PDIS模型,提高了在真实场景下的行人检测精度。实验表明:PDIS在INRIA测试集上测试结果达到93.8%的准确率,漏检率低至7.4%。  相似文献   

20.
针对聚合通道特征(ACF)算法中行人外观轮廓不稳定导致检测率下降的问题,使用快速边缘检测检测出待检测图像的边缘图;用边缘图代替ACF算法图像通道中的梯度幅值通道,获取较稳定的行人轮廓信息;采用准确率较高的Real Adaboost分类器提高分类准确性.仿真实验结果表明:算法相对于原ACF算法误检窗口减少,检测精度提升,漏检率在INRIA,Caltech数据库上分别降低了5.1%和14.8%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号