共查询到19条相似文献,搜索用时 31 毫秒
1.
针对低信噪比与复杂任务场景下,YOLOv8模型对红外遮挡目标和弱小目标检测能力不足的问题,提出了改进的DCS-YOLOv8 模型(DCN_C2f-CA-SIoU-YOLOv8)的目标检测方法.以YOLOv8框架为基础,主干网络构建了基于可变形卷积的轻量级DCN_C2f(Deformable Convolution Network)模块,自适应调整网络的视觉感受野,提高目标多尺度特征表示能力.特征融合网络引入基于坐标注意力机制CA(Coordinate Attention)的模块,通过捕捉多目标空间位置依赖关系,提高目标的定位准确性.改进基于SIoU(Scylla IoU)的位置回归损失函数,实现预测框与真实框之间的相对位移方向匹配,加快模型收敛速度并提升检测与定位精度.实验结果表明,相较于YOLOv8-nsmlx系列模型,DCS-YOLOv8 在 FLIR、OTCBVS 与 VEDAI 测试集上平均精度均值 mAP@0.5 平均提高了 6.8%、0.6%、4.0%,分别达到 86.5%、99.0%与 75.6%.同时,模型的推理速度满足红外目标检测任务的实时性要求. 相似文献
2.
随着计算机视觉技术的发展,利用图像识别技术进行行人检测并给出人与车间距的预警是车辆辅助驾驶的一个研究方向.针对行人检测中,大范围拥挤场景中行人交叠、人物行为复杂和目标密集且小而导致检测困难的问题,本文将基于FCN的逐像素目标检测算法框架——单阶段全卷积目标检测FCOS应用于行人检测.相比于SSD,RetinaNet,F... 相似文献
3.
由于低照度图像具有对比度低、细节丢失严重、噪声大等缺点,现有的目标检测算法对低照度图像的检测效果不理想.为此,本文提出一种结合空间感知注意力机制和多尺度特征融合(Spatial-aware Attention Mechanism and Multi-Scale Feature Fusion,SAM-MSFF)的低照度目标检测方法.该方法首先通过多尺度交互内存金字塔融合多尺度特征,增强低照度图像特征中的有效信息,并设置内存向量存储样本的特征,捕获样本之间的潜在关联性;然后,引入空间感知注意力机制获取特征在空间域的长距离上下文信息和局部信息,从而增强低照度图像中的目标特征,抑制背景信息和噪声的干扰;最后,利用多感受野增强模块扩张特征的感受野,对具有不同感受野的特征进行分组重加权计算,使检测网络根据输入的多尺度信息自适应地调整感受野的大小.在ExDark数据集上进行实验,本文方法的平均精度(mean Average Precision,mAP)达到77.04%,比现有的主流目标检测方法提高2.6%~14.34%. 相似文献
4.
针对目标检测领域对高检测精度和高检测速度共存的需求,提出了一种单阶段目标检测算法即性能平衡的YOLO算法(B-YOLO),该算法首先引入空间注意力机制,利用多尺度最大池化层增大感受野范围;然后采用跨阶段局部连接结构和直通层优化主干网络结构,改善计算效率;最后在多尺度检测结构中增加自下而上的路径,并使用拼接操作进行横向连... 相似文献
5.
针对火灾检测精确不高,时间长等问题。设计了基于改进FireNet的轻型火灾实时检测方法,通过获取视频图像数据,网络模型进行火灾分析和识别;首先,在FireNet特征提取阶段使用多尺度卷积网络并引入通道注意力机制,以提高回归精度。其次,对全连接层的神经元个数进行压缩优化,减少计算耗时。实验表明,改进的FireNet算法模型检测精度达到96.43%,模型存储空间0.96MB,检测帧率37。相比标准算法精度提高2.5%,存储空间压缩85%,检测帧率提升35%。 相似文献
6.
随着信息化时代的发展,数字技术广泛应用在军事领域。目标检测是武器系统的核心功能,是影响战争局势的重要因素,在侦察、预警及监视等方面具有重要的作用。然而当今目标检测领域主要存在四个问题:小目标检测、小样本检测、检测实时性和遮挡目标检测,小目标检测更是其中的重点和难点。小目标一般只占有几十甚至几个像素,传统检测算法难以依据先验知识,构建适当的特征提取模型并取得精确的检测结果。深度学习检测算法在特征提取时容易丢失特征信息,在复杂多变的应用场景下,容易混淆目标特征与背景噪声。此外,当前的小目标检测算法存在小目标语义特征利用不充分、小目标空间特征不突出等问题。算法检测准确率较低,存在大量漏检和误检现象。针对上述问题,本文提出了一种基于多尺度局部卷积特征关联(Multi-scale Local Convolutional Feature Association,MLCFA)机制的小目标检测算法。MLCFA的核心部分包含局部卷积注意力关联(Local Convolutional Attention Association,LCAA)模块和互注意力特征重构(Cross Attention Feature Reconstruction,CAFR)模块。LCAA模块对特征融合网络得到的多尺度特征图提取特征相关性,并加强小目标内部像素之间的联系,抑制背景噪声的同时突出小目标空间特征的统一性,提高复杂背景下的检测鲁棒性。CAFR模块通过自注意力机制得到100个查询向量,并结合LCAA得到的关联特征序列进行全局特征重构,通过全连接网络得到目标检测信息,一定程度上解决了小目标边界框扰动以及特征缺失的问题。在TinyPerson数据集上的对比实验表明,搭载MLCFA的网络模型与RetinaNet等算法相比,对两类目标检测的F1-Score分别提升了19.81%和11.88%,大幅度提高了小目标检测性能,证明了MLCFA模块的有效性。此外通过收敛速度实验表明,MLAFC只需要50个epoch即可具备良好的检测性能,模型推理较快,具有一定的模型迁移能力。 相似文献
7.
8.
针对复杂城市监控场景中由于目标尺寸变化大、目标遮挡、天气影响等原因导致目标特征不明显的问题,该文提出一种基于注意力机制的多尺度全场景监控目标检测方法。该文设计了一种基于Yolov5s模型的多尺度检测网络结构,以提高网络对目标尺寸变化的适应性。同时,构建了基于注意力机制的特征提取模块,通过网络学习获得特征的通道级别权重,增强了目标特征,抑制了背景特征,提高了特征的网络提取能力。通过K-means聚类算法计算全场景监控数据集的初始锚框大小,加速模型收敛同时提升检测精度。在COCO数据集上,与基本网络相比,平均精度均值(mAP)提高了3.7%,mAP50提升了4.7%,模型推理时间仅为3.8 ms。在整个场景监控数据集中,mAP50达到89.6%,处理监控视频时为154 fps,满足监控现场的实时检测要求。 相似文献
9.
孙茜容;王小鹏 《激光与光电子学进展》2025,(8):317-327
针对现有遥感影像语义分割网络存在的细节信息丢失、局部信息聚焦能力不足,以及多尺度上下文信息捕获能力受限等问题,提出一种基于空间信息增强的全局注意力机制和多模块尺度融合的深度残差网络(SGMFResUNet),用于从遥感影像中自动提取建筑物特征。以ResUNet网络为基础,优化网络深度以获取更丰富的多层级特征,并利用非对称卷积块增强各层级的特征表示和特征提取能力。同时,提出双池化密集金字塔模块,使网络能够在全局特征信息的补充下密集捕获不同尺度的建筑物上下文信息。此外,设计了层级细节增强模块用于逐级融合浅层特征信息,减少细节损失。引入改进的全局注意力机制自适应调整特征,增强全局跨维度交互以获得更好的特征表示。在WHU和Massachusetts建筑物数据集上进行实验,SGMFResUNet的交并比分别达到90.74%和77.00%,相比ResUNet分别提升1.93百分点和3.29百分点。与ResUNet、HRNetV2、MSFCN、BuildFormer、DC-Swin和SDSC-UNet等网络相比,SGMFResUNet的建筑物提取精度最优。 相似文献
10.
针对水下废弃物红外目标检测中出现的检测目标边界细节模糊、图像质量低和存在各种不规则形状或损坏的覆盖物等问题,本文提出了一种基于YOLOv5的改进目标检测方法(EFDCD-YOLO)。在主干网络中选择InceptionNeXt网络,以增强模型的表达能力和特征提取能力。其次,在特征融合层中通过加入EffectiveSE注意力机制,自适应地学习特征通道的重要性,并进行选择性加权。采用可变形卷积替代原模型中的C3模块,使模型能够更好地感知目标的形状和细节信息。此外,将CARAFE算子替代上采样模块,增强对细粒度特征的表现能力,避免信息丢失。在损失函数方面,采用Focal-EIOU损失函数,以提高模型对目标定位和边界框回归的准确性。最后,引入DyHead替换YOLOv5中的头部,通过动态感受野机制和多尺度的特征融合方式,提升模型的准确性。将改进后的EFDCD-YOLO模型应用于水下废弃物红外目标检测,相比于YOLOv5模型,改进后的模型在准确率(
11.
现有深度卷积神经网络中感受野尺度单一,无法适应目标的尺度变化和边界形变,故此本文提出了一种提取并融合多尺度特征的目标检测网络.该网络通过减少池化并在网络底层加入空间加信道压缩激励模块来突出可利用的细节信息,生成高质量的特征图;此外,在深层网络中加入可变多尺度特征融合模块,该模块具有多种尺度的感受野并可根据物体边界预测采样位置,最后通过融合多尺度特征使网络具有更强的特征表达能力并且对不同尺度实例及其边界信息更具鲁棒性.实验证明,本文结构实现了比原有结构更高的平均精度,与目前主流目标检测算法相比也具有一定优势. 相似文献
12.
针对复杂任务场景中,目标检测存在的多尺度特征学习能力不足、检测精度与模型参数量难以平衡的问题,提出一种基于CSE-YOLOv5(CBAM-SPPF-EIoU-YOLOv5,CSE-YOLOv5)模型的目标检测方法。模型以YOLOv5主干网络框架为基础,在浅层引入卷积块注意力机制层,以提高模型细化特征提取能力并抑制冗余信息干扰。在深层设计了串行结构空间金字塔快速池化层,改进了统计池化方法,实现了由浅入深地融合多尺度关键特征信息。此外,通过改进损失函数与优化锚框机制,进一步增强多尺度特征学习能力。实验结果显示,CSE-YOLOv5系列模型在公开数据集RSOD、DIOR和DOTA上表现出良好的性能。mAP@0.5的平均值分别为96.8%、92.0%和71.0%,而mAP@0.5:0.95的平均值分别为87.0%、78.5%和61.9%。此外,该模型的推理速度满足实时性要求。与YOLOv5系列模型相比,CSE-YOLOv5模型的性能显著提升,并且在与其他主流模型的比较中展现出更好的检测效果。 相似文献
13.
Deep image compression efficiency has been improved in the past years. However, to fully exploit context information for compressing image objects of different scales and shapes, more adaptive geometric structure of inputs should be considered. In this paper, we novelly introduce deformable convolution and its spatial attention extension into deep image compression task to fully exploit the context information. Specifically, a novel deep image compression network with Multi-Scale Deformable Convolution and Spatial Attention, named MS-DCSA, is proposed to better extract compact and efficient latent representation as well as reconstruct higher-quality images. First, multi-scale deformable convolution is presented to provide multi-scale receptive fields for learning spatial sampling offsets in deformable operations. Subsequently, multi-scale deformable spatial attention module is developed to generate attention masks to re-weight extracted features according to their importance. In addition, the multi-scale deformable convolution is applied to design delicate up/down sampling modules. Extensive experiments demonstrate that the proposed MS-DCSA network achieves improved performance on both PSNR and MS-SSIM quality metrics, compared to conventional as well as competing deep image compression methods. 相似文献
14.
为了提升目标检测算法在多尺度学习方面的能力,尤其是对小目标的检测能力,本文提出了一种基于改进YOLOv5的超分辨率和多尺度融合目标检测算法。首先,该算法使用子像素卷积代替原YOLOv5模型的上采样操作,提高图像的分辨率,并尽可能保留小目标的信息。其次,使用并行快速多尺度融合(parallel fast multi-scale fusion, PFMF)模块实现深层特征和浅层特征的双向融合,将原YOLOv5算法的3尺度预测升级为4尺度预测,以此提高模型多尺度特征学习能力和对小目标的检测效果。实验结果表明,与YOLOv5s相比,改进后的模型在PASCAL VOC数据集中,mAP@0.5提高了2.8个百分点,mAP@0.5∶0.95提高了3.5个百分点;在MS COCO数据集中,mAP@0.5提高了4.3个百分点,mAP@0.5∶0.95提高了5.2个百分点。改进后的YOLOv5模型在多尺度检测,尤其是小目标的检测效果方面得到了提升,并具有一定的应用价值。 相似文献
15.
16.
图像重采样检测是图像取证领域的重要任务,其目的是检测图像是否经过重采样操作。现有的基于深度学习的重采样检测方法大多只针对特定的重采样因子进行研究,而较少考虑重采样因子完全随机的情况。本文根据重采样操作中所涉及的插值技术原理设计了一组高效互补的图像预处理结构以避免图像内容的干扰,并通过可变形卷积层和高效通道注意力机制(efficient channel attention, ECA)分别提取和筛选重采样特征,从而有效提高了卷积神经网络整合提取不同重采样因子的重采样特征的能力。实验结果表明,无论对于未压缩的重采样图像还是JPEG压缩后处理的重采样图像,本文方法都可以有效检测,且预测准确率相比现有方法均有较大提升。 相似文献
17.
Anomaly behavior detection plays a significant role in emergencies such as robbery. Although a lot of works have been proposed to deal with this problem, the performance in real applications is still relatively low. Here, to detect abnormal human behavior in videos, we propose a multiscale spatial temporal attention graph convolution network (MSTA-GCN) to capture and cluster the features of the human skeleton. First, based on the human skeleton graph, a multiscale spatial temporal attention graph convolution block (MSTA-GCB) is built which contains multiscale graphs in temporal and spatial dimensions. MSTA-GCB can simulate the motion relations of human body components at different scales where each scale corresponds to different granularity of annotation levels on the human skeleton. Then, static, globally-learned and attention-based adjacency matrices in the graph convolution module are proposed to capture hierarchical representation. Finally, extensive experiments are carried out on the ShanghaiTech Campus and CUHK Avenue datasets, the final results of the frame-level AUC/EER are 0.759/0.311 and 0.876/0.192, respectively. Moreover, the frame-level AUC is 0.768 for the human-related ShanghaiTech subset. These results show that our MSTA-GCN outperforms most of methods in video anomaly detection and we have obtained a new state-of-the-art performance in skeleton-based anomaly behavior detection. 相似文献
18.
针对SSD(Single Shot MultiBox Detector)目标检测算法对小目标检测能力不足的问题,提出一种引入视觉机制和多尺度语义信息融合的VFF-SSD(Vision Feature Fusion SSD)改进算法.为了增大浅层网络的感受野提高特征提取能力,首先在SSD浅层特征层中加入视觉机制,然后利用改进PANet(Path Aggregation Network)多尺度特征融合网络与深层特征增强网络得到新的特征层,旨在增强浅层网络的语义信息并加强深层特征的特征表达能力,最后应用注意力机制模块提高对重要信息的学习能力.实验结果表明,在PASCAL VOC2007 测试集检测的mAP(Mean Average Precision)值达到81.1%,对数据集中小目标的mAP值较原SSD提高了6.6%. 相似文献
19.
针对在小目标检测过程中因浅层特征语义信息不丰富,导致漏检问题,提出一种多层特征融合改进SSD(single shot multi-box detector)方法。首先在浅层网络中加入深度可分离卷积(depthwise separable convolution,DSC) ,使用逐通道卷积和逐点卷积强化浅层语义信息;然后将深层网络和浅层网络通过反卷积和空洞卷积的方式细化特征;最后在深层网络中加入注意力机制,增强深层网络对小目标的检测能力。在VOC2007和VOC2012数据集上进行验证,平均检测精度相较于基准算法提高了5.56%,相较于其他先进算法提升了4.25%。实验结果表明,提出的细化语义和强化感知方法可以达到提高小目标检测精度的目的。 相似文献