首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 250 毫秒
1.
施政  毛力  孙俊 《计算机工程》2021,47(8):234-242
在夜间光照不足、目标被遮挡导致信息缺失以及行人目标多尺度的情况下,可见光单模态行人检测算法的检测效果较差。为了提高行人检测器的鲁棒性,基于YOLO提出一种可见光与红外光融合的行人检测算法。使用Darknet53作为特征提取网络,分别提取2个模态的多尺度特征。对传统多模态行人检测算法所使用的concat融合方式进行改进,设计结合注意力机制的模态加权融合层,以加强对融合特征图的模态选择。在此基础上,使用多尺度的融合特征进行行人检测。实验结果表明,模态加权融合较concat融合有较大的精度提升,且该算法在夜间光照不足、目标遮挡和目标多尺度情况下检测效果良好,在KAIST数据集上的检测精度优于HalFusion和Fusion RPN+BDT等算法,检测速度也有较大提升。  相似文献   

2.
针对单模态行人检测在光照条件较差、目标部分遮挡、目标多尺度时检测效果较差的问题,提出了一种基于可见和红外双模态特征金字塔融合的行人检测算法。使用深度卷积神经网络代替传统的手工设计特征方式分别自动从可见模态及红外热模态的图片中提取单模态特征,根据ResNet(Residual Net)的阶段性特征图谱搭建特征金字塔网络,生成每个模态的特征金字塔,并将两个模态的特征金字塔进行逐层融合。选择深度学习通用目标检测算法--Faster R-CNN作为后续的目标定位与分类算法来解决多模态行人检测问题。在特征金字塔融合阶段,针对级联融合和较大值融合容易忽略弱特征,无法有效融合互补特征的问题,提出了一种锐化特征的特征金字塔融合方法,根据阈值强化突出强特征,互补叠加弱特征,有效利用每个模态的特征,进一步提高模型的检测效果。实验结果表明,特征金字塔聚合的多模态行人检测算法可以有效解决多模态行人检测问题,在KAIST数据集上的检测效果超过了目前该数据集上的最佳模型。  相似文献   

3.
针对道路检测目标小、模型特征融合不充分等问题,提出了一种基于注意力机制和多尺度特征融合的道路目标检测算法MFFDM。该算法将Resnext50网络与注意力模块进行融合形成新的主干特征提取网络;其次,新增具有空间位置信息的底层检测层来匹配对小物体的检测;另外,利用反卷积模块及特征纹理提取模块设计多尺度特征融合网络DEFTFN。实验表明,与FCOS算法相比,该算法在KITTI数据集上的平均精度提升了9.3%,对道路行人目标的检测精度提升明显,提升幅度达14.6%。  相似文献   

4.
目标检测是自动驾驶系统的关键技术, 普通RGB目标检测算法在夜间和恶劣气候等场景往往表现一般, 融合可见光和红外信息的目标检测算法因而受到诸多研究关注. 现有方法通常融合结构复杂, 且忽视了模态间信息交流的重要性. 对此, 本文以YOLOv5为基本框架, 提出一种可见光–红外特征交互与融合的目标检测算法, 使用一种新的主干网络跨阶段局部(CSPDarknet53-F), 采用双分支结构分别提取可见光和红外特征. 然后, 通过特征交互模块重构各模态的信息成分和比例, 提升模态间信息交流, 使可见光和红外特征进行更充分的融合. 在FLIR-aligned和M$^3$FD数据集上的大量实验证明, 本文算法使用的CSPDarknet53-F在协同利用可见光和红外信息方面更加出色, 提升了模型精度, 同时, 拥有对抗光照强度骤变的鲁棒性  相似文献   

5.
为解决目前目标检测算法在微小行人的识别与定位过程中准确率较低的问题,提高微小行人检测能力,提出一种基于自适应融合与特征细化的微小行人检测算法AF-RetinaNet.首先,将特征增强模块与ResNet相结合构建特征提取网络,采用并行结构获得增强特征;其次,使用上下文自适应学习模块,通过获得目标上下文的特征信息,从而关注相似特征的差异性,缓解误检问题;最后,构造具有图像超分思想的特征细化模块,对目标特征信息进行放大重构,优化小目标的特征表达能力,缓解漏检问题.在TinyPerson数据集上,AF-RetinaNet算法的检测精度达到56.78%,漏检率达到85.38%.与基于RetinaNet算法的研究基准相比,检测精度提高5.57%,漏检率降低3.67%.实验结果表明,该模型能有效提高对微小行人的检测和识别精度.  相似文献   

6.
可见光图像在光照充足的条件下可以提供一系列辅助检测行人的信息,如颜色和纹理等信息,但在低照度场景下表现并不理想。红外图像虽然不能提供颜色和纹理信息,但红外图像根据热辐射差异成像而不依赖于光照条件这一特性,使其可以在低照度场景下有效区分行人区域与背景区域并提供清晰的行人轮廓信息。由于红外和可见光两种模态之间直观的互补性,同时使用红外和可见光图像的行人检测任务被认为是一个很有前景的研究方向,受到了广泛关注,大幅促进了在安防(如安全监控和自动驾驶)和疫情防控等领域应用的发展。本文对红外—可见光跨模态的行人检测工作进行全面梳理,并对未来方向进行深入思考。首先,该课题具有独特性质。可见光图像对应三通道的颜色信息而红外图像对应单通道的温差信息,如何在两种模态存在本质差异的前提下,充分利用二者的互补性是红外—可见光跨模态行人检测领域的核心挑战和主要任务。其次,近几年红外—可见光跨模态行人检测研究针对的问题可分为两类,即模态差异大和实际应用难。针对模态差异大的问题,可分为图像未对准和融合不充分两类问题。针对实际应用难的问题,又分为标注成本、实时检测和硬件成本3类问题。本文依次对跨模态行人检测的主要研究...  相似文献   

7.
刘子龙  王晨 《计算机应用研究》2021,38(12):3796-3800
主流的目标跟踪算法只使用可见光(RGB)图像进行跟踪任务,当跟踪场景的光照条件较差时,表征颜色和纹理特征的可见光图像会严重限制跟踪器的跟踪性能.针对单一模态目标信息存在缺失的问题,在Siam-FC网络模型以及红外—可见光图像融合思想的基础上提出了双模态权值自更新孪生网络目标跟踪方法.根据红外图像可以采集运动目标热信息的特点,有效利用了红外和可见光图像在目标跟踪领域的互补优势;使用较浅的特征提取网络AlexNet即可提取到运动目标具有鲁棒性的特征,在保证跟踪精度的同时提高了跟踪模型的跟踪速度.在公开数据集OTB2015和红外—可见光数据集RGB-T210进行实验,结果表明提出的目标跟踪算法在各种跟踪场景下都取得了较好的跟踪效果.  相似文献   

8.
伍鹏瑛    张建明    彭建    陆朝铨   《智能系统学报》2019,14(2):306-315
针对真实场景下的行人检测方法存在漏检、误检率高,以及小尺寸目标检测精度低等问题,提出了一种基于改进SSD网络的行人检测模型(PDIS)。PDIS通过引出更底层的输出特征图改进了原始SSD网络模型,并采用卷积神经网络不同层输出的抽象特征对行人目标分别做检测,融合多层检测结果,提升了小目标行人的检测性能。此外,针对数据集样本多样性能有效地提升检测算法的泛化能力,本文采集了不同光照、姿态、遮挡等复杂场景下的行人图像,对背景比较复杂的INRIA行人数据集进行了扩充,在扩增的行人数据集上训练的PDIS模型,提高了在真实场景下的行人检测精度。实验表明:PDIS在INRIA测试集上测试结果达到93.8%的准确率,漏检率低至7.4%。  相似文献   

9.
针对可见光模态与热红外模态间的差异问题和如何充分利用多模态信息进行行人检测,本文提出了一种基于YOLO的多模态特征差分注意融合行人检测方法.该方法首先利用YOLOv3深度神经网络的特征提取主干分别提取多模态特征;其次在对应多模态特征层之间嵌入模态特征差分注意模块充分挖掘模态间的差异信息,并经过注意机制强化差异特征表示进而改善特征融合质量,再将差异信息分别反馈到多模态特征提取主干中,提升网络对多模态互补信息的学习融合能力;然后对多模态特征进行分层融合得到融合后的多尺度特征;最后在多尺度特征层上进行目标检测,预测行人目标的概率和位置.在KAIST和LLVIP公开多模态行人检测据集上的实验结果表明,提出的多模态行人检测方法能有效解决模态间的差异问题,实现多模态信息的充分利用,具有较高的检测精度和速度,具有实际应用价值.  相似文献   

10.
海洋船舶目标识别在民用和军事领域有着重要的战略意义, 本文针对可见光图像和红外图像提出了一种 基于注意力机制的双流对称特征融合网络模型, 以提升复杂感知环境下船舶目标综合识别性能. 该模型利用双流对 称网络并行提取可见光和红外图像特征, 通过构建基于级联平均融合的多级融合层, 有效地利用可见光和红外两种 模态的互补信息获取更加全面的船舶特征描述. 同时将空间注意力机制引入特征融合模块, 增强融合特征图中关 键区域的响应, 进一步提升模型整体识别性能. 在VAIS实际数据集上进行系列实验证明了该模型的有效性, 其识别 精确度能达到87.24%, 综合性能显著优于现有方法.  相似文献   

11.
针对YOLOv5在拥挤行人检测任务中漏检率高、特征融合不充分等问题,提出了CA-YOLOv5行人检测算法。针对原主干网络对细粒度特征融合不充分的问题,采用Res2Block重建YOLOv5的主干网络,以提升网络的细粒度特征融合能力,提高检测精度。针对数据集目标尺度变化大的问题,引入coordinate attention(CA)模块增强感受野,增强模型对目标的精确定位能力。针对FPN结构在特征融合时导致多尺度特征表达能力下降的问题,提出特征增强模块,以增强多尺度特征的表达能力。通过结构重参数化的方法减少模型的计算量与参数量,加快目标检测速度。针对行人检测任务中普遍存在的拥挤行人问题,提出EViT模块,增强模型关注局部信息的能力,提高检测精度。实验证明,在拥挤行人检测任务中,CA-YOLOv5的检测精度达到84.86%,相较于原算法提高了3.75%,检测速度可以达到51?FPS,具有较好的检测精度与实时性。因此,CA-YOLOv5可以更好地应用于实时行人检测任务中。  相似文献   

12.
为了解决传统双模态目标检测方法难以在复杂场景(如大雾、眩光、黑夜)中克服低对比度噪声以及无法有效识别小尺寸目标的问题,文中提出基于自引导注意力的双模态校准融合目标检测算法.首先,设计双模态融合网络,利用通道特征和空间特征校准纠正输入图像(可见光图像与红外图像)中的低对比度噪声,从纠正后的特征中获取互补信息,并准确实现特征融合,提高算法在眩光、黑夜和大雾等场景下的检测精度.然后,构建自引导注意力机制,捕捉图像像素之间的依赖关系,增强不同尺度特征的融合能力,提高算法对于小尺寸目标的检测精度.最后,在行人、行人车辆、航拍车辆三类六种数据集上进行的大量实验表明,文中算法检测精度较高.  相似文献   

13.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

14.
针对可见光-红外跨模态行人重识别中模态差异导致的识别精确率低的问题,提出了一种基于双流结构的跨模态行人重识别关系网络(IVRNBDS)。首先,利用双流结构分别提取可见光模态和红外模态行人图像的特征;然后,将行人图像的特征图水平切分为6个片段,以提取行人的每个片段的局部特征和其他片段的特征之间的关系,以及行人的核心特征和平均特征之间的关系;最后,在设计损失函数时,引入异质中心三元组损失(HC Loss)函数放松普通三元组损失函数的严格约束,从而使不同模态的图像特征可以更好地映射到同一特征空间中。在公开数据集SYSU-MM01(Sun Yat-Sen University Multi Modal re-identification)和Reg DB(Dongguk Body-based person Recognition)上的实验结果表明,虽然IVRNBDS的计算量略高于当前主流的跨模态行人重识别算法,但所提网络在相似度排名第1(Rank-1)指标和平均精度均值(m AP)指标上都有所提高,提高了跨模态行人重识别算法的识别精确率。  相似文献   

15.
《计算机工程》2017,(7):253-260
为提高红外弱小目标在复杂背景干扰与低信噪比条件下的检测精度与效率,基于局部加权融合特征与分类二维Ostu分割,提出红外弱小目标检测算法。利用红外弱小目标与背景的灰度差异,基于Top-Hat算子设计红外背景过滤机制,使弱小目标从背景中凸显出来,使用图像的熵值定义局部加权融合特征,完成弱小目标的粗定位。采用分形理论计算粗定位区域内所有像素的分维值,构建像素分维像模型完成弱小目标的细定位,并通过特征分类二维Ostu分割机制实现红外弱小目标的精确检测。测试结果表明,与现有红外弱小目标检测算法相比,该算法具有更高的检测精度与更短的检测耗时。  相似文献   

16.
针对城市交通复杂场景下车辆检测存在准确率低的问题,提出改进SSD(单发多箱探测器)目标检测算法。首先基于轻量化的PeleeNet(一种基于密集卷积网络的轻量化网络变体)网络结构改进SSD算法中VGG16(视觉几何群网络)特征提取网络,在保证提取丰富特征的前提下,有效地减少模型参数,提高模型的实时性;其次设计了多尺度特征融合模块和底层特征增强模块,提高特征的表达性能;最后根据数据集中目标的大小调整默认框的长宽比例,并在后三个特征层的每个单元上增加默认框。实验结果表明,改进后的目标检测算法的准确率mAP(平均精度)为79.83%,与原始SSD相比提高了2.25%,并验证了改进SSD算法的有效性。  相似文献   

17.
基于显著图融合的无人机载热红外图像目标检测方法   总被引:1,自引:0,他引:1  
利用无人机载的热红外图像开展行人及车辆检测, 在交通监控、智能安防、防灾应急等领域中, 具有巨大的应用潜力. 热红外图像能够在夜间或者光照条件不理想的情况对场景目标清晰成像, 但也往往存在对比度低、纹理特征弱的缺点. 为此, 本文提出使用热红外图像的显著图来进行图像增强, 作为目标检测器的注意力机制, 并研究仅使用热红外图像和其显著图提高目标检测性能的方法. 此外, 针对无人机内存不足、算力有限的特点, 设计使用轻量化网络YOLOv3-MobileNetv2作为目标检测模型. 在实验中, 本文训练了YOLOv3网络作为检测的评价基准网络. 使用BASNet生成显著图, 通过通道替换和像素级加权融合两种方案将热红外图像与其对应的显著图进行融合增强, 比较了不同方案下YOLOv3-MobileNetv2模型的检测性能. 统计结果显示, 行人及车辆的平均精确度(Average precision, AP)相对于基准分别提升了6.7%和5.7%, 同时检测速度提升了60%, 模型大小降低了58%. 该算法模型为开拓无人机载热红外图像的应用领域提供了可靠的技术支撑.  相似文献   

18.
为了解决红外场景下车辆检测算法参数量与计算量大、识别精度低、小目标检测难度大的问题,提出了一种改进YOLOv7-tiny的轻量级红外车辆目标检测算法:KD-YOLO-DW。通过融合深度可分离卷积提出了ELAN-DW模块,极大地降低了网络参数量与计算量。通过在特征融合层引入GhostNet V2模块,提高了不同尺度特征的融合能力。采用动态非单调FM的WIoU损失函数,解决了红外数据集难易样本不平衡的问题,提高了轻量级算法对红外弱小目标的检测能力。联合残差思想提出跨尺度融合策略,提高了轻量级算法对不同尺度目标的检测效果,降低了小目标的漏检率。通过知识蒸馏对轻量化模型再次浓缩,进一步提高了模型对检测红外目标的准确性。实验结果表明,KD-YOLO-DW模型在参数量与计算量方面分别较YOLOv7-tiny模型下降了24.6%和16.7%,模型大小仅为9.2 MB,mAP分别提高了3.27和3.15个百分点,拥有更小的模型体积与更好的检测效果。  相似文献   

19.
提出一种基于红外和可见光视频融合的夜间行人检测算法。算法融合可见光和红外两种视频信息,使行人检测结果更直观,能够提供视觉丰富的环境信息。首先,通过时空滤波技术和目标热成像特征对红外视频进行滤噪,然后根据红外视频中的亮度信息用区域种子生长算法进行运动目标分割,再根据区域形状及颜色信息进行目标筛选,最后将红外和可见光视频融合起来增强检测结果,使视频中提供的信息更加丰富。  相似文献   

20.
针对景区内高密度行人检测中遮挡与小目标行人漏检率高、模型复杂度高、计算量大的问题,提出一种YOLOv5-GSPE改进算法模型,在保证精度的同时改善检测效果,降低模型复杂度。改进算法模型通过GhostConv优化主干网络中常规卷积(Conv)降低模型复杂度,并使用空洞卷积改善SPPF模块中池化操作带来的特征信息丢失,提升模型检测时效性,增强主干网络特征提取。提出一种增强的特征金字塔网络—PrFPN,使用同层连接进一步丰富原始输入特征的融合,减少特征提取过程中的特征损失。将引入正态分布计算优化后的EIoU损失函数作为边界框回归损失函数,提高边界框定位精度。实验结果表明,YOLOv5-GSPE算法模型对比YOLOv5s模型在保证检测时效性的情况下整体复杂度降低了12.51%,基于Pedestrian测试集的平均精度提升4.05%,基于WiderPerson测试集的平均精度提升3.28%,并降低了行人遮挡及小目标漏检率,改善了检测效果,该模型的可行性与有效性得到验证。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号