首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
基于深度学习的目标检测算法如YOLO(YouOnlyLookOnce)和FasterR-CNN(FasterRegionConvolutional Neural Network)需要大量训练数据以保证模型的精度,而在很多场景下获取数据以及标注数据的成本较高;并且由于缺少海量的训练数据,导致检测的范围受限。针对以上问题,提出了一种基于孪生网络的小样本目标检测算法(SiamDet),旨在使用少量标注图像训练具有一定泛化能力的目标检测模型。首先,提出了基于深度可分离卷积的孪生网络,并使用深度可分离卷积设计了特征提取网络ResNet-DW,从而解决了样本不充足带来的过拟合问题;其次,基于孪生网络,提出了目标检测算法SiamDet,并在ResNet-DW的基础上,引入区域建议网络(RPN)来定位感兴趣目标;然后,引入二值交叉熵损失进行训练,并使用对比训练策略,从而增加了类别之间的区分度。实验结果表明,SiamDet在小样本条件下具有良好的目标检测能力,且相较于次优的算法DeFRCN(Decoupled Faster R-CNN),SiamDet在MS-COCO数据集20-way 2-shot和P...  相似文献   

2.
目的 在传统车辆目标检测问题中,需要针对不同图像场景选择适合的特征。为此提出一种基于快速区域卷积神经网络(Fast R-CNN)的场景图像车辆目标发现方法,避免传统车辆目标检测问题中需要设计手工特征的问题。方法 该方法基于深度学习卷积神经网络思想。首先使用待检测车辆图像定义视觉任务。利用选择性搜索算法获得样本图像的候选区域,将候选区域坐标与视觉任务示例图像一起输入网络学习。示例图像经过深度卷积神经网络中的卷积层,池化层计算,最终得到深度卷积特征。在输入时没有规定示例图像的规格,此时得到的卷积特征规格不定。然后,基于Fast R-CNN网络结构,通过感兴趣区域池化层规格化特征,最后将特征输入不同的全连接分支,并行回归计算特征分类,以及检测框坐标值。经过多次迭代训练,最后得到与指定视觉任务强相关的目标检测模型,具有训练好的权重参数。在新的场景图像中,可以通过该目标检测模型检测给定类型的车辆目标。结果 首先确定视觉任务包含公交车,小汽车两类,背景场景是城市道路。利用与视觉任务强相关的测试样本集对目标检测模型进行测试,实验表明,当测试样本场景与视觉任务相关度越高,且样本中车辆目标的形变越小,得到的车辆目标检测模型对车辆目标检测具有良好的检测效果。结论 本文提出的车辆目标检测方法,利用卷积神经网络提取卷积特征代替传统手工特征提取过程,通过Fast R-CNN对由示例图像组成定义的视觉任务训练得到了效果良好的车辆目标检测模型。该模型可以对与视觉任务强相关新场景图像进行效果良好的车辆目标检测。本文结合深度学习卷积神经网络思想,利用卷积特征替代传统手工特征,避免了传统检测问题中特征选择问题。深层卷积特征具有更好的表达能力。基于Fast R-CNN网络,最终通过多次迭代训练得到车辆检测模型。该检测模型对本文规定的视觉任务有良好的检测效果。本文为解决车辆目标检测问题提供了更加泛化和简洁的解决思路。  相似文献   

3.
针对传统列车轨道障碍物检测方法实时性差和对小目标检测精度低的不足,提出一种改进YOLOv5s检测网络的轻量化障碍物检测模型。引入更加轻量化的Mixup数据增强方式,替代算法中原有的Mosaic数据增强方式;引入GhostNet网络结构中的深度可分离卷积GhostConv,替代原有YOLOv5s模型中特征提取网络与特征融合网络中的普通卷积层,减小了模型的计算开销;在模型特征提取网络末端加入CA空间注意力机制,让算法在训练过程中减少了重要位置信息的丢失,弥补了改进GhostNet对检测精度的损失;将改进后的模型进行稀疏训练和通道剪枝操作,剪掉对检测精度影响不大的通道,同时保留重要的特征信息,使模型更加轻量化。实验结果表明,改进后的模型在自制的多样化轨道交通数据集上,相较于原始YOLOv5s算法,在模型大小减小9.7 MB,检测速度提高14 FPS的前提下,检测精度提升了1.0个百分点。同时与目前主流的检测算法对比,在检测精度与检测速度上也具有一定的优越性,适用于复杂轨道交通环境下的障碍物目标检测。  相似文献   

4.
为解决夜间场景下视频监控目标检测在实际应用时准确率不高这一问题,提出改进的YOLOv5算法。首先,建立了真实夜间场景目标的数据集,该数据集有2000张图像,分为了机动车、非机动车和车牌三个类别,以8∶2的比例均匀随机分为训练集和测试集,将夜间目标的图像放入改进的YOLOv5模型中训练,最终达到在夜间检测目标的目的;改进的YOLOv5利用了K-means++聚类算法生成自适应锚框,提高对夜间目标样本的聚类效率。其次,将改进的CBAM注意力机制与特征提取网络进行融合以获取夜间目标的重要特征。最后,将Bottleneck替换成GSBottleneck模块,利用GSConv轻量化的优势减少网络模型的计算量与参数量。结果表明,通过原YOLOv5网络模型算法训练后得到的mAP值为86.69%,改进后的YOLOv5网络模型算法训练后得到的mAP值为91.98%,三种被检测类别:机动车、非机动车和车牌的检测准确精度与原版算法相比分别提升了2.00、6.66、7.19个百分点,改进的YOLOv5网络模型可以为夜间场景下车辆特征的检测提供较好的技术支持。  相似文献   

5.
针对移动端目标检测算法需要模型参数量与计算量更少、推理速度更快和检测效果更好以及目标检测算法对于小目标误检、漏检及特征提取能力不足等问题, 提出一种基于YOLOv5改进的轻量化目标检测算法. 该算法使用轻量级网络MobileNetV2作为目标检测算法的骨干网络降低模型的参数量与计算量, 通过使用深度可分离卷积结合大卷积核的思想降低网络的计算量与参数量, 并提升了小目标的检测精度. 使用GhostConv来替换部分普通卷积, 进一步降低参数量与计算量. 本文算法在VOC竞赛数据集, COCO竞赛数据集两份数据集上均进行了多次对比实验, 结果表明本文算法相比于其他模型参数量更小、计算量更小、推理速度更快以及检测精度更高.  相似文献   

6.
本文利用卷积神经网络对高速公路服务区停车场进行场景分割与车位检测.首先,通过扩充高速公路服务区停车场数据集,利用卷积神经网络进行高速公路服务区停车场区域分割与车辆检测,并对特征提取网络进行权重共享,从而达到联合训练的目的及网络模型轻量化.进而,通过对车辆的纹理特征提取,采用金字塔特征融合的方法对小目标的识别进行强化.最后,利用高速公路服务区停车位的先验知识实时计算停车场的停车位信息.实际应用表明该方法在复杂场景下,对车位检测的准确率为94%,检测速度为每秒25帧,具有很强的泛化能力,适合用于高速公路服务区停车场车位检测.  相似文献   

7.
目的 火焰检测可有效防止火灾的发生。针对目前火焰检测方法,传统图像处理技术的抗干扰能力差、泛化性不强,检测效果对数据波动比较敏感;机器学习方法需要根据不同的场景设定并提取合适火焰的特征,过程比较繁琐。为此提出一种基于Faster R-CNN的多类型火焰检测方法,避免复杂的人工特征提取工作,在面对复杂背景、光照强度变化和形态多样的火焰图像时依然保证较好的检测精度。方法 基于深度学习的思想,利用卷积神经网络自动学习获取图像特征。首先,利用自建数据集构建视觉任务。根据火焰的尖角特性、直观形态和烟雾量等,将火焰类数据划分为单尖角火焰、多尖角火焰和无规则火焰3类。此外,通过深度网络特征可视化实验发现,人造光源与火焰在轮廓上具有一定的相似性,为此建立了人造光源圆形和方形两个数据集作为干扰项来保证检测模型的稳定性;然后,细化训练参数并调整预训练的卷积神经网络结构,改动分类层以满足特定视觉任务。将经过深度卷积神经网络中卷积层和池化层抽象得到的图像特征送入区域生成网络进行回归计算,利用迁移学习的策略得到每一类目标物体相应的探测器;最后,得到与视觉任务相关的目标检测模型,保存权重和偏置参数。并联各类目标物体的子探测器作为整体探测器使用,检测时输出各类探测器的分数,得分最高的视为正确检测项。结果 首先,利用训练好的各探测器与相应测试集样本进行测试,然后,再利用各类目标物的测试集来测试其他类探测器的检测效果,以此证明各探测器之间的互异性。实验结果表明,各类探测器都具有较高的专一性,大大降低了误判的可能性,对于形变剧烈和复杂背景的火焰图像也具有良好的检测准确率。训练得到的检测模型在应对小目标、多目标、形态多样、复杂背景和光照变化等检测难度较大的情况时,均能获得很好的效果,测试集结果表明各类探测器的平均准确率提高了3.03% 8.78%不等。结论 本文提出的火焰检测方法,通过挖掘火焰的直观形态特征,细分火焰类别,再利用深度卷积神经网络代替手动特征设置和提取过程,结合自建数据集和根据视觉任务修改的网络模型训练得到了检测效果良好的多类型火焰检测模型。利用深度学习的思想,避免了繁琐的人工特征提取工作,在得到较好的检测效果的同时,也保证了模型具有较强的抗干扰能力。本文为解决火焰检测问题提供了更加泛化和简洁的解决思路。  相似文献   

8.
针对运动场景下由于设备移动、相机散焦,导致采集到的图像模糊,图像质量低,以及目标体积小,使目标检测困难的问题,提出了一种改进YOLOv5x目标实时检测模型。采用可变形卷积网络替换部分原始YOLOv5x中传统的卷积层,增强模型在运动场景中细粒度特征提取和小目标检测能力;增加SE注意力机制,解决在卷积过程中,因丢失图像全局上下文信息,造成特征损失的问题,提高了模型在图像模糊情况下小目标的检测精度;引入一种新的边界框回归损失函数SIoU Loss,解决了预测框在回归时随意匹配的问题,提高了模型鲁棒性和泛化能力,加快网络的收敛速度。实验结果表明,相比于YOLOv5x模型,将改进后的算法应用在水下移动机器人生物检测中,模型准确率P、召回率R、各类平均精度mAP分别提升了5.90个百分点、5.85个百分点、4.38个百分点,有效增强了小目标检测模型的检测性能。  相似文献   

9.
针对合成孔径雷达图像目标在背景复杂、场景较大、干扰杂波较多情况下检测困难的问题,设计一种层数较少的卷积神经网络,在完备数据集验证其特征提取效果后,作为基础特征提取网络使用。在训练数据集中补充复杂的大场景下目标训练样本。同时设计一种多层次卷积特征融合网络,增强对大场景下小目标的检测能力。通过对候选区域网络和目标检测网络近似联合训练后,得到一个完整的可用于不同的复杂大场景下SAR图像目标检测的模型。实验结果表明,该方法在SAR图像目标检测方面具有较好的效果,在测试数据集中具有0.86的AP值。  相似文献   

10.
铁路检测、监测领域产生海量的图像数据,基于图像场景进行分类对图像后续分析、管理具有重要价值.本文提出一种结合深度卷积神经神经网络DCNN (Deep Convolutional Neural Networks)与梯度类激活映射Grad-CAM (Grad Class Activation Mapping)的可视化场景分类模型,DCNN在铁路场景分类图像数据集进行迁移学习,实现特征提取,Grad-CAM根据梯度全局平均计算权重实现对类别的加权热力图及激活分数计算,提升分类模型可解释性.实验中对比了不同的DCNN网络结构对铁路图像场景分类任务性能影响,对场景分类模型实现可视化解释,基于可视化模型提出了通过降低数据集内部偏差提升模型分类能力的优化流程,验证了深度学习技术对于图像场景分类任务的有效性.  相似文献   

11.
有缆水下机器人ROV是水下工程作业的重要工具,但由于不同水质特性及水中散射折射的影响,ROV水下图像普遍存在失真模糊、分辨率低等问题。为此构建深度分离可变形卷积代替原始卷积,采用高效表达稀疏性的特征提取结构实现对ROV水下目标的特征提取;再运用多深度机制的改进GAN网络生成器和类似马尔可夫架构的判别器建立数据集,增强水下图像;最后构建多项损失函数,提升网络的泛化性能并实现对ROV目标的快速检测。水下实验结果表明,该水下图像增强方法提高了ROV目标检测精度,符合预期要求。  相似文献   

12.
陈宗海  洪洋  王纪凯  葛振华 《机器人》2019,41(2):147-155
提出了一种基于卷积长短期记忆(LSTM)网络和卷积神经网络(CNN)的单目视觉里程计方法,命名为LSTMVO(LSTM visual odometry).LSTMVO采用无监督的端到端深度学习框架,对单目相机的6-DoF位姿以及场景深度进行同步估计.整个网络框架包含位姿估计网络以及深度估计网络,其中位姿估计网络是以端到端方式实现单目位姿估计的深度循环卷积神经网络(RCNN),由基于卷积神经网络的特征提取和基于循环神经网络(RNN)的时序建模组成,深度估计网络主要基于编码器和解码器架构生成稠密的深度图.同时本文还提出了一种新的损失函数进行网络训练,该损失函数由图像序列之间的时序损失、深度平滑度损失和前后一致性损失组成.基于KITTI数据集的实验结果表明,通过在原始单目RGB图像上进行训练,LSTMVO在位姿估计精度以及深度估计精度方面优于现有的主流单目视觉里程计方法,验证了本文提出的深度学习框架的有效性.  相似文献   

13.
为了有效提升无人驾驶道路上障碍物检测精度,本文提出了一种改进的Faster-RCNN的目标检测模型。不同于i一般的基于FasterRCNN模型将特征提取网络采用Resnet50替换VGG16,并加深了卷积层的深度,使得特征信息更充分的利用,并与Eff数据集VOC2007下进行训练测试对比。实验表明本文提出的模型在道路上检测障碍物精度更高,可应用范围广,实现了目标的有效识别。  相似文献   

14.
伍鹏瑛    张建明    彭建    陆朝铨   《智能系统学报》2019,14(2):306-315
针对真实场景下的行人检测方法存在漏检、误检率高,以及小尺寸目标检测精度低等问题,提出了一种基于改进SSD网络的行人检测模型(PDIS)。PDIS通过引出更底层的输出特征图改进了原始SSD网络模型,并采用卷积神经网络不同层输出的抽象特征对行人目标分别做检测,融合多层检测结果,提升了小目标行人的检测性能。此外,针对数据集样本多样性能有效地提升检测算法的泛化能力,本文采集了不同光照、姿态、遮挡等复杂场景下的行人图像,对背景比较复杂的INRIA行人数据集进行了扩充,在扩增的行人数据集上训练的PDIS模型,提高了在真实场景下的行人检测精度。实验表明:PDIS在INRIA测试集上测试结果达到93.8%的准确率,漏检率低至7.4%。  相似文献   

15.
安祯阳 《现代计算机》2024,(4):39-42+47
针对混叠场景下口罩佩戴检测识别率低,而现有检测模型结构复杂难以部署的难题,提出了一种轻量级口罩佩戴检测算法。首先,轻量化网络MobileNetv3作为混叠场景图像的特征提取网络;其次提出通道混洗,空间上利用不同感受野的卷积核进行特征提取的注意力机制,实现特征信息的强化;最后设计了损失函数解决了数据类不平衡问题,提高了模型检测精度。在公开数据集测试表明,模型平均检测精度为78.1%,FPS达到65.53 Hz,满足在小型设备部署的要求。  相似文献   

16.
为解决硬件平台资源受限条件下的实时航空目标检测需求,在基于改进YOLOv5的基础上,提出了一种针对移动端设备/边缘计算的轻量化航空目标检测方法。首先以MobileNetv3为基础搭建特征提取网络,设计通道注意力增强结构MNtECA (MobileNetv3 with Efficient Channel Attention)提高特征提取能力;其次在深度可分离卷积层增加1×1的卷积,在减少卷积结构参数的同时提高网络的拟合能力;最后对检测网络进行迭代通道剪枝实现模型压缩和加速。实验选取DIOR (Object Detection in Optical Remote Sensing Images)数据集进行训练和测试,并在嵌入式平台(NVIDIA Jetson Xavier NX)对轻量级模型进行推理验证。结果表明,所提出的轻量级模型大幅降低了参数和计算量,同时具有较高精度,实现了移动端设备/边缘计算的实时航空目标检测。  相似文献   

17.
古印章文本因图像退化与超多分类等特点导致识别难度大,部分字符的标注数据不足造成基于深度学习的模型识别准确率不高,泛化能力差.针对上述问题,提出基于深度残差网络(ResNet)和迁移学习的古印章文本识别方法.使用深度残差网络作为特征提取网络,利用人工合成字符样本作为源域进行预训练.将自建古印章文本识别数据集作为目标域,引...  相似文献   

18.
目的 伪装目标是目标检测领域一类重要研究对象,由于目标与背景融合度较高、视觉边缘性较差、特征信息不足,常规目标检测算法容易出现漏警、虚警,且检测精度不高。针对伪装目标检测的难点,基于YOLOv5(you only look once)算法提出了一种基于多检测层与自适应权重的伪装目标检测算法(algorithm for detecting camouflage targets based on multi-detection layers and adaptive weight,MAH-YOLOv5)。方法 在网络预测头部中增加一个非显著目标检测层,提升网络对于像素占比极低、语义信息不足这类目标的感知能力;在特征提取骨干中融合注意力机制,调节卷积网络对特征信息不足目标的权重配比,使其更关注待检测的伪装目标;在网络训练过程中使用多尺度训练策略,进一步提升模型鲁棒性与泛化能力;定义了用于军事目标检测领域的漏警、虚警指标,并提出伪装目标综合检测指数。结果 实验在课题组采集的伪装数据集上进行训练和验证。结果表明,本文方法在自制数据集上的平均精度均值(mean average precision,...  相似文献   

19.
针对当前一些主流的深度神经网络模型旨在追求准确率的提升,而忽略了模型的实时性及模型大小问题,提出了一种轻量级目标识别深度神经网络。基于深度分离卷积、分组卷积等轻量化的高效卷积方式,设计了用于图像特征提取的不变分辨率卷积模块和下采样模块,并依此构建了深度主干网络,并对网络进行了减枝。在创建的数据集上对视觉感知的目标识别模型进行了实验验证,获得了72.7%的mAP,在NVIDIA 1080Ti GPU上推理速度达到66.7 帧/s。  相似文献   

20.
针对红外弱小目标像元数量少、图像背景复杂、检测精度低且耗时较长的问题,文中提出了一种多深度特征连接的红外弱小目标检测模型(MFCNet)。首先,提出了多深度交叉连接主干形式以增加不同层间的特征传递,增强特征提取能力;其次,设计了注意力引导的金字塔结构对深层特征进行目标增强,分离背景与目标;提出非对称融合解码结构加强解码中纹理信息与位置信息保留;最后,引入点回归损失得到中心坐标。所提网络模型在SIRST公开数据集与自建长波红外弱小目标数据集上进行训练并测试,实验结果表明,与现有数据驱动和模型驱动算法相比,所提算法在复杂场景下具有更高的检测精度及更快的速度,模型的平均精度相比次优模型提升了5.41%,检测速度达到100.8 FPS。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号