共查询到10条相似文献,搜索用时 131 毫秒
1.
2.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳.为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法.首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像.然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像.最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测.实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力. 相似文献
3.
基于卷积神经网络的雾霾环境视觉目标检测,通常直接利用无雾条件下清晰的数据集对网络进行训练,网络无法通过训练集获取雾霾图像下目标的特征权重配置,因而检测效果不佳.为了提高雾霾环境下目标检测效果,从数据集构建角度入手,提出了一种在无雾图像上生成带雾图像的方法.首先以KITTI-objection数据集作为原始无雾图像,利用改进的Monodepth无监督深度估计方法生成原始图像的深度图像.然后构造几何先验深度模板,以图像熵为权值与深度图进行融合,并根据大气散射模型,由深度图像得到雾图像.最后,采用基于二阶的Faster-RCNN和基于一阶的YOLOv4两种典型的目标检测架构,对原始数据集、雾数据集、混合数据集进行训练,并对室外自然雾霾场景数据集RESIDE-OTS进行检测.实验结果表明,使用混合数据集训练下的模型检测效果最好,在YOLOv4模型下mAP值提升了5.6%,在Faster R-CNN网络下mAP值提升了5.0%,从而有效提升了雾霾环境下卷积神经网络的目标识别能力. 相似文献
4.
针对现有目标检测模型参数量大、检测速度慢,难以适应航空发动机孔探检测轻量化应用需求的问题,提出了基于YOLOv4目标检测算法的轻量化航空发动机损伤检测模型。设计了基于深度可分离卷积的轻量化特征融合结构,在YOLOv4的颈部结构(Neck)中,将普通卷积重构为逐通道卷积和逐点卷积的形式,有效减少了网络中的冗余参数;为进一步降低模型参数量,使用MobileNetv3作为特征提取网络。在减少参数量的同时,2种轻量化改进方法有效提高了模型的检测速度;在轻量化后的路径聚合网络(Path Aggregation Network, PANet)中加入卷积注意力模块(Convolutional Block Attention Module, CBAM),通过仅引入少量的参数来提高轻量化网络的损伤检测精度。实验结果表明,改进YOLOv4算法的平均精度均值(mean Average Precision, mAP)为89.82%,模型大小为73.29 MB,检测速度为37.3 FPS。与YOLOv4目标检测算法相比,改进YOLOv4算法以3.55%的mAP损失,使模型参数量降低了约2/3,检测速度提高了1.... 相似文献
5.
6.
针对无人机航拍图像检测存在小目标检测准确率低以及检测模型计算量过大的问题,提出了一种基于改进YOLOv5的无人机小目标检测方法。首先,针对小目标存在漏检的问题,在YOLOv5的特征提取网络中引入了高效通道注意力机制(ECA)模块,提高对小目标的特征提取能力,进而提高小目标检测精度;其次,针对模型计算量大的问题,将模型中的CBL模块进行改进,把其中的普通卷积替换为Ghost卷积,减少模型参数和计算量,以便于在小型嵌入式设备部署;最后为了进一步优化和改进YOLOv5算法,采用加权损失函数,以充分学习图像特征。在DOTA数据集上进行测试,实验结果表明,改进的模型提升了小目标检测效果,其mAp为73.1%,比原算法提高了1.9%,速度达到了92 ms,可以准确地完成无人机航拍小目标检测任务,同时也满足实时性要求。 相似文献
7.
8.
远距离行人小目标成像像素少、缺乏纹理信息,深度卷积神经网络难以提取小目标细粒度特征,难以准确识别与检测。本文提出一种远距离行人小目标检测方法。首先,在YOLOv4的基础上引入浅层特征改进特征金字塔,提取行人小目标细粒度特征,提出引力模型特征自适应融合方法,增加多层次语义信息之间的关联度,防止小目标特征信息流失。然后,采用增强型超分辨率生成对抗网络增加行人小目标特征数量,提高行人小目标检测准确率。最后,选取图像像素中占比范围为0.004%~0.026%的行人小目标建立试验数据集,通过与Faster RCNN、ION、YOLOv4对比实验验证。结果表明,本文方法mAP0.5提高了25.2%、26.3%、11.9%,FPS达到24,研究成果在远距离安防监测监控领域具有重要应用价值。 相似文献
9.
10.
在选区激光熔融成形过程中,飞溅与熔池包含了能够体现加工质量的重要特征信息,从成形过程采集到的熔池图像中,获得这些信息,实现选区激光熔融的过程监测是近年来研究的重点之一。为了更加精确且有效地从图像中提取熔池和飞溅的信息,提出了一种基于YOLOv5目标检测模型,实现了对成形过程图像中飞溅与熔池的实时定位与捕获。首先,以YOLOv5s目标检测网络为基础,调整骨干网络的深度与宽度,修改检测头的数量。之后,引入自校正卷积与CBAM注意力机制模块,设计了新的特征整合结构,通过上述步骤,提升了网络的检测性能。将工业相机采集到的图像制作为目标检测数据集,进行模型的训练与测试,结果表明该网络能够从原始图像中对飞溅与熔池目标进行准确的定位,在具有良好的检测精度的同时,网络模型的参数量极少,更加符合工业应用的需求。网络的检测精度mAP@0.5:0.95达到了0.466,为基于图像的选区激光熔融过程监测提供了一种新的方法。 相似文献