首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
针对烟雾分割领域缺乏应用于实际监控系统的实时烟雾分割算法的现况,提出高准确率的实时烟雾分割算法. 该算法利用轻量化的多分辨率卷积模块并行提取特征图,在获得丰富语义信息的同时满足实时分割的需求. 提出烟雾前景增强模块,使得烟雾像素点融合前景增强表征、避免背景信息干扰,分割准确率得以提高. 提出残差注意力模块,从通道、空间维度增强重要特征信息,抑制无效信息. 该算法在自建数据集上平均交并比为91.27%,每张图片预测时间为39.06 ms,网络权重为74.66 MB;在公开数据集上的对比结果表明,该算法综合检测性能优于其他烟雾检测算法. 该算法分割准确率高、检测速度快且模型轻量化,可以应用于实际视频监控系统.  相似文献   

2.
复杂条件下特殊目标的精确检测是增强特定场景态势生成和预测能力的关键因素。目前的技术不能克服航拍视频中出现的烟雾和遮挡干扰、目标高度变化、尺度不一等问题。因此,提出一个多特征交叉融合及跨层级联的航拍特殊目标检测算法(YOLOv5-MFLC)。针对实际特殊目标保密性高、航拍图像资源匮乏的问题,构建了一个基于真实场景的航拍特殊目标数据集,并采用随机拼接和随机提取嵌入的方法进行数据增强以提高目标多样性和泛化性;针对复杂背景干扰问题,构建了多特征交叉融合注意力机制,增强了目标特征的可用信息;针对航拍图像中目标多尺度问题,设计了跨层级联多尺度特征融合金字塔,提高了跨尺度目标的检测准确率。实验结果表明,与现有的先进检测模型相比,所提算法的检测准确率有较大提升,算法平均准确率可达到81.0%,相比于原始网络提升了5.2%,特别是,在更小的目标类别“person”中达到了55.9%,提升了9.4%,进一步表明了所提改进算法对小目标检测的有用性。同时,所提算法的检测速率可以达56 frame/s,能够有效地实现实际复杂场景特殊目标的准确、快速检测,对特殊目标的识别具有一定的指导意义。  相似文献   

3.
针对交通场景中目标像素占比小、互相遮掩等因素造成漏检、误检的问题,提出了基于YOLOv3的多目标检测方法。该方法在YOLOv3网络结构中植入空间金字塔池化模块以增强特征表达,同时提出一种多尺度特征融合机制兼顾获取空间信息和语义信息,通过扩展预测层的预测分支来细化待检目标的语义信息。此外,将改进的K均值聚类算法用于提取先验框的初始中心点,提升预测锚框与待检目标的匹配度,并运用柔性非极大值抑制算法进行置信分数的灵活调整。基于混合数据集的实验结果表明,所提方法有效地提升了检测精度。  相似文献   

4.
作为目标检测领域最突出的问题,遮挡和多尺度严重影响了算法的召回率和准确率。针对以上问题,该文从感受野入手,提出了一种基于空洞卷积金字塔网络(ACFPN)的目标检测算法。首先,将不同尺寸的空洞卷积层引入特征金字塔网络(FPN)中,构建混合感受野模块(HRFM),旨在控制参数量的条件下,通过增大感受野获取更多全局特征信息,解决目标的遮挡问题;其次,改进FPN的结构,设计低层嵌入特征金字塔模块(LEFPM),将浅层特征细节信息和高层特征语义信息相融合,提高特征图的丰富度和表征能力,增强模型的尺度适应性;特别地,针对漏检问题,引入FCOS算法中的无锚框(AF)机制,减少了候选框的冗余,进一步提高了定位精度。最后在公开数据集上进行测试,该算法在检测精度上大幅提升。  相似文献   

5.
由于现有的烟雾检测方法大多依靠手工选取特征,往往不能准确地分割出视频图像中的烟雾区域。基于此,提出了改进的DeeplabV3烟雾分割算法。改进的算法在基础编码器网络后添加了特征细化模块来削弱空洞卷积带来的网格效应;针对烟雾这类尺度和姿态多变的非刚性目标,在带有空洞卷积的空间金字塔模块中引入可变形卷积来更好地学习烟雾的形变;为了进一步恢复烟雾的空间细节,提出了通道注意力解码器模块。在烟雾图片数据集的测试下,改进后的模型平均每张图片的预测时间约达到71.73ms,平均像素精确度约达到97.78%,平均交并比约达到91.21%,精度与DeeplabV3模型相比分别提高了0.56%及2.17%,更加适用于烟雾分割。公开的烟雾视频测试结果表明,该模型的检测率高于现有的视频烟雾检测算法,具有一定的实用价值。  相似文献   

6.
针对深度学习入侵检测中出现的数据类不平衡及特征学习不全面等问题,提出了一种基于卷积神经网络(CNN)与双向门控循环单元(BiGRU)融合的神经网络入侵检测模型。通过SMOTE-Tomek算法完成对数据集的平衡处理,使用基于平均不纯度减少的特征重要性算法实现特征选择,将CNN和BiGRU模型进行特征融合并引入注意力机制进行特征提取,从而提高模型的总体检测性能。使用入侵检测数据集CSE-CIC-IDS2018进行多分类实验,并与经典单一深度学习模型进行对比。实验结果表明:在数据集平衡方面,经SMOTE-Tomek算法处理,DoS attacks-Slow HTTP Test识别准确率从0提升至34.66%,SQL Injection识别准确率从0提升至100%,DDoS attack-LOIC-UDP、Brute Force-Web和Brute Force-XSS分别提升了5.22百分点、6.55百分点和35.71百分点,证明了平衡后的数据集较未经过处理的数据集在少数类的识别精度上提升明显。在模型的总体检测性能方面,在多分类实验对比中,所提模型总的分类精确率、召回率以及F1值均高于其他几种...  相似文献   

7.
针对多尺度单发射击检测(SSD)算法对于复杂背景下小目标物体漏检和误检问题,将特征融合模块和注意力模块相结合来改进SSD算法。在公开光学遥感图像RSOD中Aircraft数据集的试验结果表明:基于改进SSD算法能够实现对复杂背景下遥感影像飞机检测,AP值和F1值分别为76.22%和65%,比SSD算法分别提升了2.39%和6%,改进SSD算法比SSD算法有效增强了复杂场景下检测遥感影像飞机目标的精度,主要来自于小目标物体检测精度的提升。此外,通过消融试验表明特征融合模块比注意力模块对SSD算法检测遥感影像飞机目标精度提升效果更好,将这两个模块相结合来改进SSD算法,能够保持较高的检测速度,加强SSD算法对小目标物体检测能力。  相似文献   

8.
遥感图像存在背景复杂、目标尺度差异大且密集分布等不足,为提高现有算法的检测效果提出联合多尺度与注意力机制的遥感图像目标检测算法. 改进空洞空间金字塔池化模块,增大不同尺寸图像的感受野;提出注意力模块用于学习特征图通道信息和空间位置信息,提升算法对复杂背景下遥感图像目标区域的特征提取能力;引入加权双向特征金字塔网络结构与主干网结合来增进多层次特征的融合;使用基于距离的非极大值抑制方法进行后处理,改善检测框易重叠的问题. 在DIOR和NWPUVHR-10数据集上的实验结果表明:所提算法的平均精度均值mAP分别达到71.6%和91.6%,相比于主流的YOLOv5s算法分别提升了2.9%和1.5%. 所提算法对复杂遥感图像取得了更好的检测效果.  相似文献   

9.
水上交通场景环境复杂,通过普通光学摄像设备获取的水面图像,面临着视觉目标清晰度低、尺度多样化等问题,使得可见光视觉信号里中、小尺度目标检测相对困难。为服务于各类智慧海事应用,提出了一个旨在提高复杂水域背景下多尺度水上船舶目标检测性能的算法(multi-scale ship object detection,MS-SOD)。该算法基于当前计算机视觉技术中主流的单阶段目标检测模型框架,在其主干网络中嵌入卷积注意力模块,来优化船舶特征提取能力;在多尺度特征融合网络中引入富含细节信息的浅层特征,并使用跨阶段局部残差结构,来优化多尺度船舶特征的融合机制;同时,使用焦点损失函数,来优化模型的学习过程;并设计自适应锚框聚类算法优化先验锚框,以提高多尺度船舶目标检测能力。为验证提出算法的有效性和实效性,在构建较大规模水上船舶目标数据集的基础上,开展了广泛实验验证。结果表明:提出的算法在测试数据集上的检测准确度超过了各主流的对比方法;特别是对于大、中、小各尺度船舶目标的检测精度,相对于主流的YOLOv4算法,提出的算法分别提升了11.3%、6.0%和10.5%。  相似文献   

10.
针对现有基于深度学习的印刷电路板(PCB)缺陷检测算法无法同时满足精度和效率要求的问题,提出基于YOLOv3改进的AT-YOLO算法来检测PCB缺陷.将主干网络替换为ResNeSt50,提高特征提取能力,减少参数量.引入SPP模块,融合不同感受野的特征,丰富了特征的表达能力.改进PANet结构替换FPN,插入SE模块提升有效特征图的表达能力,增加1组高分辨率特征图的输入输出,提升对小目标物体的敏感程度,检测尺度由3个增加到4个.使用K-means算法重新聚类生成锚框尺寸,提高了模型的目标检测精度.实验证明,AT-YOLO算法在PCB缺陷检测数据集上的精度均值AP0.5达到98.42%,参数量为3.523×107,平均检测速度为36帧/s,满足精度和效率的要求.  相似文献   

11.
Existing video smoke detection methods have a low detection accuracy in complex scenes and cannot detect smoke areas in video frames accurately. In this paper, a phased smoke detection algorithm that combines the smoke movement process and the target detection algorithm is proposed. First, an improved ViBe algorithm based on smoke color features is used to extract the continuously moving smoke in video. Then, the YOLO v3 model is used as the target detection network. The channel attention mechanism is added to the residual structure of its backbone network. Focal-loss and GIoU are utilized to improve the loss function. According to the test of the smoke image data set, the detection time of the improved network on a single picture is 38.4ms and the mAP reaches 92.13%, which is 2.19% higher than that by the original model. While extracting smoke motion, the same frame is sent to the improved YOLO v3 for smoke detection. Finally, comprehensive discrimination is made based on the smoke detection results in stages. Public smoke video test results show that the algorithm has an average detection rate of 98.88%, which proves that the algorithm has a strong adaptability, a high detection efficiency in complex scenes and a high practical application value.  相似文献   

12.
现有遥感图像目标检测算法存在参数量大、检测速度慢和难以部署于移动设备的问题,为此,本文提出了一种无锚框的轻量级遥感图像目标检测算法.首先设计了DWS-Sandglass轻量化模块以降低模型体积,并改进模型激活函数,以确保检测精度.然后引入无参数注意力模块SimAM,使网络能够专注于更重要的特征信息.最后对无锚框算法的冗余通道进行剪枝操作以减少模型参数量,并通过微调回升精度.在HRSC2016数据集上的实验结果表明,与当前主流的无锚框检测算法相比,该算法在检测精度相当的情况下检测速度更快、模型体积更小,更适合在移动设备部署.  相似文献   

13.
RGB-D显著性目标检测是计算机视觉领域的研究任务之一,很多模型在简单场景下取得了较好的检测效果,却无法有效地处理多目标、深度图质量低下以及显著性目标色彩与背景相似等复杂场景。因此,本文提出一种三分支多层次Transformer特征交互的RGB-D显著性目标检测模型。首先,本文采用坐标注意力模块抑制RGB和深度图的噪声信息,提取出更为显著的特征用于后续解码。其次,通过特征融合模块将高层的三层特征图调整到相同的分辨率送入Transformer层,有效获取远距离显著性目标之间的关联关系和整幅图像的全局信息。然后,本文提出一个多层次特征交互模块,该模块通过有效地利用高层特征和低层特征对显著性目标的位置和边界进行细化。最后,本文设计一个密集扩张特征细化模块,利用密集扩张卷积获取丰富的多尺度特征,有效地应对显著性目标数量和尺寸变化。通过在5个公开的基准数据集与19种主流模型相比,实验结果表明:本文方法在多个测评指标上有较好的提升效果,提高了在特定复杂场景下的检测精度,从P-R曲线、F-measure曲线和显著图也可以直观看出本文方法实现了较好的检测结果,生成的显著图更完整、更清晰,相比其他模型更加接近真值图。  相似文献   

14.
针对无人机在航拍目标跟踪的复杂场景过程中,运动目标可能会被遮挡或不确定跟踪,导致视觉模型出现逐渐损坏、漂移和不可逆转失败等问题,提出了一种无人机航拍目标的长期跟踪算法.首先,进行互补分类器多特征自适应融合设计,在贝叶斯分类器中采用颜色直方图特征,在相关滤波器中采用方向梯度直方图、灰度以及颜色名特征;结合多种特征的优点,...  相似文献   

15.
针对现有的协同显著性检测算法在多显著目标复杂场景下表现不佳的问题,提出了一种基于高效通道注意力和特征融合的协同显著性检测算法。首先,检测算法利用预训练的深度卷积神经网络对场景进行多尺度特征的提取,结合边缘显著信息设计了显著性语义特征提取模块,以避免全卷积神经网络导致边缘信息的缺失;其次,通过内积基本原理得到组内图片间的关联性信息并根据其关联程度进行自适应加权,结合高效通道注意力层设计了协同特征提取算法;最后,为了将各级高层语义特征经过协同显著性特征提取之后的结果与浅层次的特征进行融合,并实现对预测结果进行多分支同步监督,设计了基于高效通道注意力的特征融合模块。通过对3个经典的数据集进行测试,并与6种现有的协同显著检测算法进行对比,结果表明本文所提算法提高了复杂场景中图像的协同显著性检测的精度以及边缘信息的丰富程度,并具有更优的协同显著性信息检测性能;通过消融实验进一步验证了所提设计算法各个模块的有效性和必要性。  相似文献   

16.
复杂场景中烟雾特性的提取是目前视频烟雾检测领域的主要挑战。针对该问题,提出一种静态和动态特征结合的卷积神经网络视频烟雾检测框架。在静态单帧图像特征检测的基础上,进一步分析其时空域上的动态纹理信息以期克服复杂的环境干扰。实验结果显示,该级联卷积神经网络模型可有效应用于复杂视频场景中烟雾事件的实时检测。  相似文献   

17.
针对复杂环境下起火点目标尺寸较小、起火点特征易与实际场景混淆导致烟火检测效率及准确率低等问题,提出了一种基于改进YOLOv5的小尺度烟火目标检测方法.首先,在原始YOLOv5模型输出的第3个检测层上增加第4个检测层,以此获取更大的特征图对小目标进行检测,加强网络模型的特征提取能力.其次,为解决目标在被遮挡的场景中容易出现漏检的问题,将原网络中用于计算目标框损失函数的GIoU_Loss替换成DIoU_Loss.最后,利用TensorRT对模型进行压缩和加速优化,并将其部署到Jetson TX2开发板上进行加速推理实验,通过复制增强方法扩充实际烟火场景数据.大量实验结果表明,本文所提方法用于复杂环境下的小尺度烟火目标检测不仅检测速度快而且精度高,适于推广应用.  相似文献   

18.
UAV video has many advantages of flexible view,continuous view and wide monitoring scope,and at the same time,there are many problems,such as crowded targets,strong motion noises and so on,which make target detection difficult.To solve these problems,this paper proposes a video vehicle detection algorithm based on the interframe target regression network.According to the characteristics of crowded vehicles in UAV video,soft non maximum suppression is proposed as the detecting-box merging strategy of FCOS,and thus a single-frame vehicle detector is constructed.In order to deal with the problem that the single-frame detector can be easily disturbed by motion noise when it is directly applied to video detection,thus resulting in the change of the confidence level for the same target,an interframe target regression network is designed.The target features of adjacent multiple frames are fused by using interframe movement continuity,and the fused features are matched with the target features of the current frame to output the prediction results.Finally,the detection performance is improved by correcting prediction results through single-frame detection results.Compared with FCOS and FGFA,the average precision of the proposed algorithm is improved by 2% and 5% respectively,reaching 47.42%.Experimental results show that it is better than the existing FCOS and FGFA,and has better robustness and generalization.  相似文献   

19.
雨纹分布和形状具有多样性,现有去雨算法在去雨的同时会产生图像背景模糊、泛化性能差等问题.因此,本文提出一种基于注意力机制的多尺度特征融合图像去雨方法.特征提取阶段由多个包含两个多尺度注意力残差块的残差组构成,多尺度注意力残差块利用多尺度特征提取模块提取及聚合不同尺度的特征信息,并通过坐标注意力进一步提高网络的特征提取能力.在组内进行局部特征融合,组间利用全局特征融合注意力模块更好地融合不同层次的特征,通过像素注意力使网络重点关注于雨纹区域.在仿真和真实雨像数据集上与其他现有图像去雨算法相比,本文方法的定量指标有着明显提高,去雨后的图像视觉效果较好且具有良好的泛化性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号