首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
近年来基于深度卷积神经网络的目标检测算法已经成为了主流,Faster R-CNN就是一种主流的目标检测算法。在Faster R-CNN卷积神经网络的基础上,使用DIoU来评价预测框和真实框的距离。针对Faster R-CNN小目标检测效果不好的缺陷,将原算法中的候选区域池化RoI Pooling改进为检测更为精确的区域特征聚集方式RoI Align。此外还改进了原算法中锚框的非极大值抑制方法,增加了算法的平均检测率。最后在公开数据集MS COCO、PASCAL VOC 2007、PASCAL VOC 2012上进行对比训练,在PASCAL VOC 2007测试集上进行验证。实验结果表明改进后的目标检测算法能够有效提高原Faster R-CNN算法的目标检测率。  相似文献   

2.
面向多尺度目标检测的改进Faster R-CNN算法   总被引:2,自引:0,他引:2  
由于多尺度目标检测中图像目标尺度差异性大,基于单层次特征提取的目标检测算法或者导致小目标特征提取丢失、扭曲,或者导致大目标特征提取冗余度过高,检测效果不理想.为此,基于Faster R-CNN思想,提出一种多尺度目标检测算法.首先采用多层次提取特征策略提取多尺度目标特征;然后统计目标真实框大小与纵横比,设置锚点规格;最后采用多通道方法生成多尺度目标候选框.基于PASCAL VOC数据集的实验结果表明,该算法总体漏检率为9.7%,平均精度的均值为75.2%,检测性能较当前主流的多尺度目标检测算法有一定的提高.  相似文献   

3.
针对图像纹理细节等高频特征在基于卷积神经网络模型的特征提取过程中丢失,从而导致小目标检测效果较差的问题,提出一种多层频域特征融合的目标检测算法。算法以Faster R-CNN为基础框架,使用高频增强后的图像和对比度增强后的图像作为算法输入样本,提高了待检测图像质量;针对总像素面积较小的目标,更改RPN网络中的锚点尺度,并利用多尺度卷积特征融合的方法,融合来自不同特征层的特征,解决了小目标在深层特征图中特征信息丢失的问题。实验结果表明,所提算法在DAGM 2007数据集上具有良好的性能,平均精度均值mAP达到了97.9%,在PASCAL VOC 2007测试集上对小目标的mAP也明显优于原始Faster R-CNN的。  相似文献   

4.
目的 针对Faster R-CNN (faster region convolutional neural network)模型在肺部计算机断层扫描(computed tomography,CT)图磨玻璃密度影目标检测中小尺寸目标无法有效检测与模型检测速度慢等问题,对Faster R-CNN模型特征提取网络与区域候选网络(region proposal network,RPN)提出了改进方法。方法 使用特征金字塔网络替换Faster R-CNN的特征提取网络,生成特征金字塔;使用基于位置映射的RPN产生锚框,并计算每个锚框的中心到真实物体中心的远近程度(用参数“中心度”表示),对RPN判定为前景的锚框进一步修正位置作为候选区域(region proposal),并将RPN预测的前景/背景分类置信度与中心度结合作为候选区域的排序依据,候选区域经过非极大抑制筛选出感兴趣区域(region of interest,RoI)。将RoI对应的特征区域送入分类回归网络得到检测结果。结果 实验结果表明,在新冠肺炎患者肺部CT图数据集上,本文改进的模型相比于Faster R-CNN模型,召回率(recall)增加了7%,平均精度均值(mean average precision,mAP)增加了3.9%,传输率(frames per second,FPS)由5帧/s提升至9帧/s。特征金字塔网络的引入明显提升了模型的召回率与mAP指标,基于位置映射的RPN显著提升了模型的检测速度。与其他最新改进的目标检测模型相比,本文改进的模型保持了双阶段目标检测模型的高精度,并拉近了与单阶段目标检测模型在检测速度指标上的距离。结论 本文改进的模型能够有效检测到患者肺部CT图的磨玻璃密度影目标区域,对小尺寸目标同样适用,可以快速有效地为医生提供辅助诊断。  相似文献   

5.
针对多尺度行人检测的问题,本文提出一种基于融合特征金字塔网络(Feature pyramid networks,FPN)和Faster R-CNN(Faster region convolutional neural network)的行人检测算法。首先,对FPN和区域建议网络(Region proposal networks,RPN)进行融合;然后,对FPN和Fast R-CNN进行融合;最后,在Caltech数据集、KITTI数据集和ETC数据集上分别对融合FPN和Faster R-CNN的行人检测算法进行训练和测试。该算法在Caltech数据集、KITTI数据集和ETC数据集上的mAP (mean Average Precision)分别达到69.72%, 69.76%和89.74%。与Faster R-CNN相比,该算法不仅提高了行人检测精度,而且在多尺度行人检测的问题上也获得了较为满意的检测效果。  相似文献   

6.
缺陷检测对于古建筑的保护和修缮具有重要的意义,传统的地砖缺陷检测通过目视检查,存在受人力影响大、耗时长等限制。基于深度学习的良好应用前景,建立故宫地砖缺陷的数据集,提出改进型Faster R-CNN的网络。首先,构建可变形卷积,通过网络学习并提取地砖中的缺陷特征;然后,将特征图输入区域生成网络中生成候选区域框,将生成的特征图和候选区域框进行池化操作;最后,输出缺陷检测结果。在故宫地砖图片数据集的测试下,改进后的模型平均准确率均值到达92.49%,与Faster R-CNN模型相比提高了2.99%,更适用于地砖缺陷检测。  相似文献   

7.
为解决传统目标检测精确度不高、有效性差、难以适应仓储环境下多目标识别应用场景的问题,提出了一种改进型Faster R-CNN目标检测算法。首先,采用ResNet50替换VGG16作为特征提取网络,以提高模型的检测精度;同时,为兼顾多尺度及小目标物体的检测,引入了特征金字塔网络,形成了残差金字塔特征提取网络ResFPN;其次,引入了注意力机制,提高输入特征的空间和通道有效信息利用率;最后,使用RoI Align代替原有的RoI Pooling,以消除因量化取整而产生的预测框回归误差。在经图像增广处理的自建数据集上进行实验测试,结果表明,提出的改进型Faster R-CNN算法在仓储环境下能满足对人员、叉车和托盘的目标检测需求,其平均检测精确度能达到90.2%。  相似文献   

8.
基于深度特征的目标检测方法Faster R-CNN在火焰检测任务上存在检测效率低的问题,因此提出了基于颜色引导的抛锚策略。该策略设计火焰颜色模型来限制锚的生成,即利用火焰颜色约束锚的生成区域,从而减少了初始锚的数量,提升了计算效率。为了进一步提高网络的计算效率,将区域生成网络中的卷积层替换成掩膜卷积。为了验证所提方法的检测效果,采用BoWFire和Corsician数据集进行验证。实验结果表明,该方法实际检测速度相较于原Faster R-CNN提高了10.1%,BoWFire上该方法的火焰检测F值为0.87,Corsician上该方法的准确度可达99.33%。所提方法可以提高火焰检测的效率,并能够准确检测图像中的火焰。  相似文献   

9.
针对货车利用躲避摄像头等手段在城市道路中不按规定时间、规定线路行驶,使得车辆不能被准确识别的问题,提出基于改进Faster RCNN的城市道路货车检测方法.该方法以Faster RCNN为基础模型,通过对传入主干网络的车辆图片进行卷积和池化等操作来提取特征,其中增加特征金字塔网络(FPN)提升对多尺度目标检测的精度;同时将K-means聚类算法应用在数据集上以获取新的锚点框;利用RPN (region proposal network)生成建议框;并使用CIoU (complete-IoU)损失函数代替原算法的smoothL1损失函数以提升检测车辆的精确性.实验结果显示,改进后的Faster RCNN相比原算法对货车检测的平均精度(AP)提高7.2%,召回率(recall)提高6.1%,减少了漏检的可能,在不同场景下具有良好的检测效果.  相似文献   

10.
针对输电线路无人机巡检图像中绝缘子自爆缺陷目标小而难以精准检测的问题,提出一种基于Faster R-CNN和改进的YOLO v3级联双模型的绝缘子自爆缺陷检测算法。首先,利用无人机巡检图像构建绝缘子串缺陷数据集,并对训练图像样本进行翻转预处理,增加样本数量,提高模型泛化能力,避免过拟合;然后,利用Faster R-CNN检测图像中的绝缘子串,再将检测到的绝缘子串图像送入改进的YOLO v3网络进行自爆缺陷的定位。改进的YOLO v3网络是在YOLO v3基础上借鉴FPN的思想,增加特征提取层并进行特征融合,充分利用深层特征和浅层特征;同时采用CIoU Loss函数作为损失函数,以解决边界框宽高比尺度信息。实验结果表明,本文算法在所构建的绝缘子缺陷数据集上的检测准确率达到91.2%,相比Faster R-CNN或YOLO v3等单模型检测算法提升了3.31个百分点以上,能有效实现无人机巡检中绝缘子自爆缺陷的检测,为输电线路智能化巡检故障诊断提供方法支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号