首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对通用的目标检测算法在检测生活场景下的多类目标时检测精度低、速度较慢的问题,提出了一种基于注意力机制改进的轻量级目标检测算法YOLOv4s。该算法以CSPDarknet53-s作为主干特征提取网络提取图像特征,通过注意力模块进行特征选择,再利用特征金字塔网络对特征进行融合,最后通过检测头分别处理特征融合后的两个输出,进而提高对生活场景下多类目标检测的能力。实验结果表明:相比改进前的算法,YOLOv4s算法在PASCAL VOC数据集上的平均均值精度(mAP)及MS COCO数据集上的平均精度(AP)都有一定程度的提升;相较于轻量级算法Efficientdet,YOLOv4s算法在MS COCO数据集上的AP也有一定提高,并且实现了有效的显著目标检测。  相似文献   

2.
针对Faster R-CNN算法存在特征提取不充分、检测框定位不准确导致检测精度不高的问题,提出一种多尺度特征融合和锚框自适应相结合的目标检测算法。首先,通过双向融合方法充分提取相邻层级间的深层特征和浅层特征;然后,均衡化处理多尺度特征,使集成的特征能获得来自不同分辨率下等量的语义信息和细节信息,提高目标的识别能力;最后,在区域提议网络(RPN)中利用目标的特征信息,通过自适应预测锚框的位置和形状来生成锚框。基于VOC数据集对算法的实验结果表明:与基于ResNet50的Faster R-CNN算法相比,所提算法中的多尺度特征融合策略加强了算法对不同尺度目标的检测能力,自适应锚框机制能够提高定位精度并避免小目标的漏检,算法整体的检测结果具有较好表现,平均检测精度提升了3.20个百分点。  相似文献   

3.
水下环境存在光线差、噪声大等复杂情况,导致传统水下目标检测方法检测精度较低、漏检率较高。针对上述问题,在现阶段通用的Faster R-CNN的基础上,提出一种自动色阶与双向特征融合的水下目标检测算法。首先,采用自动色阶对水下模糊图像进行增强处理;其次,采用PAFPN进行双向特征融合,以增强对浅层信息的表达能力;然后,在训练前后均引入柔性非极大值抑制(Soft-NMS)算法,来修正并生成候选目标区域;最后,采用FocalLoss函数,解决正负样本分配不均衡的问题。实验结果表明,所提算法在URPC2020数据集上的检测准确率可达59.7%,召回率可达70.5%,相比现阶段通用的Faster R-CNN算法,分别提高了5.5个百分点和8.4个百分点,有效提高了水下目标检测的准确率。  相似文献   

4.
针对当前红外场景下多尺度车辆检测精度欠佳且算法模型复杂度高的问题,提出了基于Shuffle-RetinaNet的红外车辆检测算法。该算法以RetinaNet网络为基础,并选用ShuffleNetV2作为特征提取网络。提出双分支注意力模块,通过双分支结构和自适应融合方法增强网络对红外图像中目标关键特征的提取能力;优化特征融合网络,集成双向交叉尺度连接和快速归一化融合,增强目标多尺度特征的表达能力;设置校准因子增强分类和回归之间的任务交互,提高目标分类和定位的准确性。该算法在自建红外车辆数据集上的检测精度达到92.9%,参数量为11.74×106,浮点计算量为24.35×109,同时在公开红外数据集FLIR ADAS上也展现出较好的检测性能。实验结果表明:该算法具有较高的检测精度,且模型复杂度低,在红外车辆检测领域具有较高的应用价值。  相似文献   

5.
地铁场景行人目标存在大小不一、不同程度遮挡以及环境过暗导致目标模糊等问题,很大程度影响了行人目标检测的准确性。针对上述问题,本研究提出了一种改进YOLOv5s目标检测算法以增强地铁场景行人目标检测的效果。构建地铁场景行人数据集,标注对应标签,进行数据预处理操作。本研究在特征提取模块中加入深度残差收缩网络,将残差网络、注意力机制和软阈值化函数相结合以增强有用特征信道,削弱冗余特征信道;利用改进空洞空间金字塔池化模块,在不丢失图像信息的前提下获得多尺度、多感受野的融合特征,有效捕获图像全局上下文信息;设计了一种改进非极大值抑制算法,对目标预测框进行后处理,保留检测目标最优预测框。实验结果表明:提出的改进YOLOv5s算法能有效提高地铁场景行人目标检测的精度,尤其对小行人目标和密集行人目标的检测,效果提升更为显著。  相似文献   

6.
针对低光照环境下现有的目标检测算法普遍存在检测精度较低的问题,提出一种改进YOLOv5的双通道低光照图像目标检测算法(YOLOv5_DC)。首先,通过伽马变换和叠加高斯噪声的方法合成低光照图像,扩充数据集,提高模型的泛化能力;其次,提出特征增强模块,引入通道注意力机制,融合增强图像和原始图像的低级特征,抑制噪声特征的影响,改善网络的特征提取能力;最后,在颈部网络中加入特征定位模块,增加特征图在目标区域的响应值,使网络更关注目标区域,提高网络的检测能力。实验结果表明:所提YOLOv5_DC算法实现了更高的检测精度,在低光照图像目标检测数据集ExDark*上的平均精度均值(mAP)@0.5达71.85%,较原始的YOLOv5算法,提高了1.28个百分点。  相似文献   

7.
深度学习模型中的特征金字塔网络(Feature Pyramid Network,FPN)常被用作合成孔径雷达(Synthetic Aperture Radar,SAR)图像中多目标船舶的检测。针对复杂场景下多目标船舶检测问题,提出了一种基于改进锚点框的FPN模型。首先将特征金字塔模型嵌入传统的RPN(Region Proposal Network)并映射成新的特征空间用于目标检测,然后利用基于形状相似度距离(Shape Similar Distance,SSD)度量的Kmeans聚类算法优化FPN的初始锚点框,并使用SAR船舶数据集测试。实验结果表明,所提算法目标检测精确率达到98.62%,在复杂场景下与YOLO、Faster RCNN、FPN based on VGG/ResNet等模型进行对比,模型准确率提高,整体性能更好。  相似文献   

8.
立体区域卷积神经网络(Stereo R-CNN)算法具有准确、高效的特点,在一定场景下的检测性能较好,但对于远景目标的检测仍有一定的提升空间。为了提升双目视觉算法的车辆检测精度,提出一种改进的Stereo R-CNN算法。该算法将确定性网络(DetNet)作为骨干网络,以增强网络对远景目标的检测;针对左右目视图的潜在关键点,建立了左右视图关键点一致性损失函数,以提高选取潜在关键点的位置精度,进而提高车辆的检测准确性。在KITTI数据集上的实验结果表明,本算法的性能优于Stereo R-CNN,在二维、三维检测任务上的平均精度提升了1%~3%。  相似文献   

9.
针对传统图像处理算法在检测隐形眼镜表面缺陷时存在精度低、耗时长、算法鲁棒性差、漏检多等问题,提出一种基于改进Faster R-CNN的隐形眼镜表面缺陷检测算法。首先,对比了3种特征提取网络的性能,选取ResNet50作为骨干网络;然后,引入特征金字塔网络(FPN),通过融合多层次的特征信息,提高Faster R-CNN的多尺度检测能力;最后,基于构建的隐形眼镜表面缺陷数据集,使用K-means++算法改进锚框的尺度和数量。实验结果表明:改进后的Faster RCNN算法在测试集上的平均精度均值(mAP)达到了86.95%,相比于改进前的Faster R-CNN算法,提高了9.45个百分点,可以有效地检测出气泡、车削亮点、划痕、模具亮点等多种隐形眼镜典型缺陷。  相似文献   

10.
为了解决高分辨率遥感图像目标检测存在的背景复杂多样、密集的物体分布及目标尺度差异大等问题,同时考虑到应用场景对模型资源的限制,提出了一种基于YOLOX-Tiny的轻量级遥感目标检测网络。首先采用多尺度预测方法增强对密集目标的检测能力;其次引入协同注意力模块提高重要特征关注度,抑制背景噪声;再者通过可变形卷积替换关键预测卷积层,强化空间建模能力;最后优化损失函数,改善遥感目标定位精度。在公开的遥感图像目标检测数据集DIOR上评估了所提算法的有效性,实验结果表明:相比基准算法(YOLOX-Tiny),所提算法在平均精度(AP)和AP50指标上分别提升4.1个百分点和4.42个百分点;在保持较高精度的前提下,每秒检测帧数(FPS)达到46,可满足实时检测的需求,优于其他先进算法。  相似文献   

11.
提出一种高性能的基于深度语义和位置信息融合的双阶段三维目标检测(DSPF-RCNN)算法。在第一阶段提出深度特征提取-区域选取网络(DFE-RPN),使网络在俯视图中能够提取目标更深层次的纹理特征和语义特征。在第二阶段提出逐点语义和位置特征融合(ASPF)模块,使网络能够自适应地提取目标最有差异性的特征,增强中心点在特征提取时的聚合能力。算法在KITTI数据集上进行测试,结果显示,测试集中Car类目标在Easy、Moderate和Hard水平的检测精度均优于现有的主流算法,检测精度分别为89.90%,81.04%和76.45%;验证集中Car和Cyclist类目标在Moderate水平的检测精度分别为84.40%和73.90%,相对于主流算法提升了4%左右,推理时间为64 ms。最后将算法部署在实车平台上实现了在线检测,验证了其工程价值。  相似文献   

12.
针对大视野交通场景下背景复杂和交通标志目标较小的问题,提出一种改进Faster R-CNN检测网络的算法.首先采用深度残差网络ResNet50作为骨干网络,提取交通标志的特征;然后设计了在两个不同层级特征图上使用合理尺度滑动窗口的策略来生成目标建议区域,增强多尺度交通标志的检测能力;最后在残差块中引入注意力机制模块,强...  相似文献   

13.
随着遥感图像分辨率的不断提高,遥感图像目标检测技术获得了更广泛的关注。针对遥感图像中背景复杂噪声多、目标方向任意且目标尺寸变化大等问题,提出一种基于多层级局部自注意力增强的遥感目标检测算法。首先,在Oriented R-CNN骨干网络中引入Swin Transformer特征提取模块,使用具有移位窗口操作和层次设计的Transformer模块对特征提取的语义信息进行多层级局部信息建模。其次,使用Oriented RPN生成高质量的有向候选框。最后,将高斯分布之间的Kullback-Leibler divergence(KLD)作为回归损失函数,使得参数梯度能够根据对象的特征得到动态调整,更加准确地进行检测框的回归。所提算法在DOTA数据集和HRSC2016数据集上的平均精度均值(mAP)分别达77.2%和90.6%,和Oriented R-CNN算法相比,mAP分别提高了1.8个百分点和0.5个百分点。实验结果表明,所提算法能够有效地提高遥感图像目标检测精度。  相似文献   

14.
针对雾天遥感图像目标检测困难的问题,提出了一种基于Mask R-CNN的改进方法。在Mask R-CNN的基础上加入去雾算法,使雾天情形下检测精度提升18.71%,有效改善雾天场景下目标检测的效果。为进一步提高遥感图像中多尺度目标的检测精度,采用基于最优的特征组合的循环神经网络代替特征金字塔结构,减少了特征信息在传递过程中的流失;重新设计区域建议网络生成候选框的尺寸,并采用Soft-NMS筛选候选框,减小候选框的回归误差。经过实验分析,改进后算法的检测精度和召回率分别提升5.37%和6.37%。  相似文献   

15.
针对当前无人机目标检测技术精确度低、受环境影响大的缺点,依托运动相机与激光雷达设备,提出了基于改进深度学习的无人机目标检测方法:在深度图像网络架构的基础上,引入残差网络提升算法精度,利用MobileNet加速深度学习的过程,从而利用改进的RetinaNet算法实现无人机精确目标识别与定位;针对点云数据无法通过二维投影准确计算距离的问题,提出通过直方图网络精确估计检测目标的视觉距离。实验结果表明,在不同的复杂环境条件下,与Faster R-CNN相比,所提方法检测精度更高、使用场景更广、运算速度更快,平均精度比Faster R-CNN算法高出1.5%。  相似文献   

16.
近几年,基于深度学习的目标检测算法在航空图像检测任务中得到了广泛应用。针对传统水平目标检测算法无法定位航空图像中大量密集排列的倾斜目标问题,提出了TF-BBAVectors模型算法来实现航空图像中倾斜目标的检测任务。为了避免深度卷积神经网络(Deep Convolutional Neural Network, DCNN)带来的网络退化等问题,使用Transformer结构搭建特征提取网络;针对密集的、小尺度图像目标的问题,采用多尺度特征融合的方法提升检测效果;针对倾斜目标检测的问题,通过边界框边缘感知向量表示任意角度的倾斜目标。在DOTA1.0和SSDD+数据集上的部分测试结果表明,此方法的平均精度分别为72.39%和79.98%,证明了TF-BBAVectors模型算法的有效性。  相似文献   

17.
黄攀  杨小冈  卢瑞涛  常振良  刘闯 《红外与激光工程》2021,50(12):20210281-1-20210281-10
针对红外舰船目标图像数据少、获取难度高等问题,结合图像的几何变化以及金字塔生成对抗网络的特征拟合,提出一种几何空间与特征空间联合的红外舰船目标图像数据增强方法。首先,利用基于几何空间的几何变换、混合图像及随机擦除等图像变换方法对红外舰船目标图像进行增强;然后,根据红外舰船图像特点,改进金字塔生成对抗网络(SinGAN),在生成器引入In-SE通道间注意力机制模块,增强小感受野特征表达,使其更适合用于红外舰船目标;最后,在数据集层面联合基于几何空间的几何数据变换和基于特征空间的生成对抗网络两种方法,完成对原始数据集的数据增强。结果表明:以YOLOv3、SSD、R-FCN和Faster R-CNN目标检测算法为基准模型,开展红外舰船图像数据增强仿真实验,采用增强数据训练的网络模型的舰船目标检测平均精度(mAP)均提高了10%左右,验证了所提方法在小样本红外舰船图像数据增强方面的可行性,为提高红外舰船目标检测算法提供了数据基础。  相似文献   

18.
针对Faster R-CNN目标检测算法存在的定位和检测精度问题,设计了一种可嵌入Faster R-CNN目标检测算法并进行端到端训练的可移动的注意力(MA)模型。首先,为了获取更加精确的空间位置信息,MA采用两个自适应最大池化分别基于输入特征图的水平和竖直两个方向进行特征聚合,生成两个独立的方向感知特征图;其次,为了防止模型过拟合,使用Sigmoid激活函数增加网络非线性;最后,为了充分利用已经得到的空间位置信息,将具有非线性的两个特征图与输入特征图依次相乘以增强输入特征图的表征能力。实验结果表明:基于MA改进的Faster R-CNN目标检测算法有效地提升了网络对感兴趣目标的定位能力,并且平均检测精度也得到了明显的提升。  相似文献   

19.
在自动驾驶中,车辆的三维目标检测是一项重要的场景理解任务。相比于昂贵的雷达设备,借助双目设备的三维目标检测方法有成本低定位准确的特点。基于立体区域卷积神经网络(Stereo RCNN)提出了一种用于双目视觉的三维目标检测OC-3DNet算法,有效地提高了检测精度。针对特征提取高分辨率与感受野的矛盾,结合特征提取网络与注意力引导特征金字塔(AC-FPN),有效地提高了算法对小目标的检测精度。针对三维中心投影检测误差大的问题,建立了一种新的三维中心投影与二维中心的约束关系,进一步提升了三维目标检测的精度。实验结果表明,改进后的OC-3DNet算法在以0.7为阈值的三维目标检测上平均精度为43%,较Stereo R-CNN三维目标检测的平均精度提升了约3%。  相似文献   

20.
电力遥感目标检测对电网安全有着重要意义。针对电力遥感目标检测精度低的问题,提出了一种基于特征增强和筛选机制的YOLOv5目标检测算法。数据预处理方面,通过同态滤波和Retinex去雾算法进行数据增强,降低遥感影像大气折射和光照不均匀影响,增强目标特征;网络模型方面,将CBAM融合注意力模块添加到网络骨干层之前,通过k-means聚类特征增强和筛选机制,减少卷积核深度和网络参数;预测网络方面,将预测框中心坐标和真实框中心坐标之间的欧式距离作为代价函数添加到回归损失函数中。在google电力遥感数据集上进行对比实验,结果表明:检测平均精度均值可达83.7%,相比于基线算法以及其他检测算法,平均精度值提升了9%,速度提高了45.7%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号