首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 140 毫秒
1.
为了解决现有的火灾检测算法中模型复杂,实时性差,检测精度较低的问题,提出快速高效的火灾检测算法. 该算法采用Anchor-Free网络结构,克服了Anchor方法中超参数过多、网络结构复杂的缺点;选用MobileNetV2作为基础特征提取网络,满足了检测的高实时性需求;针对火焰目标的形状、尺度多变的特点,设计适合于火焰检测的分类与边框预测子网络;引入特征选择模块,在特征金字塔网络中自动选择更合适的金字塔特征层. 算法在自建数据集上的检测精度达到90.1%;在公开数据集上取得了较好的检测结果,其检测速度可达24.6 帧/s. 实验结果表明,算法的网络模型简单,检测精度较高,检测速度较快;综合性能优于现有的其他火灾检测算法.  相似文献   

2.
针对复杂工程场景常用的行人检测方法(尤其在小目标检测方面)精度低、复杂度高的问题,提出一种基于YOLOv5网络的改进识别方法。在骨干网络与颈部网络引入ECA注意力机制,提升模型对通道特征的关注度以抑制背景噪声;使用加权双向特征金字塔结构BIFPN对颈部网络进行修改,加强模型对不同尺度特征融合;使用Ghost模块替换骨干网络与颈部网络的部分卷积,减少模型参数、缩小体积。结果表明:提出的改进模型检测精度达到了88.4%,同时,模型的复杂度(参数量与模型大小)仅为13.5×106与6.67 MB;与目前主流的深度学习方法相比,该算法在检测精度与复杂度上具有更好的性能,在复杂的场景下具有较好的识别效果。  相似文献   

3.
可逆缩放网络(IRN)的潜变量采用高斯分布嵌入图像高频信息,因其独立随机性无法充分保存图像高频信息,嵌入效果一般,影响重建性能。通过改进可逆缩放网络来提高嵌入高频信息的能力并进一步降低模型的复杂度。首先,特征提取模块采用密集连接结构和通道注意力机制来获取足够的特征信息,同时减少模块参数量;其次,网络的潜变量采用小波域高频子带插值设计,改善高频信息嵌入能力。实验结果显示该算法相比IRN,在Set5、Set14、BSD100和Urban100这4个基准测试集上的PSNR和SSIM分别平均提升了0.380 dB和0.014,参数量减少约1.64×106,计算量减少约0.43×109,运行时间减少3 ms。表明该算法的重建性能优良,模型复杂度低,具有实用价值。  相似文献   

4.
针对现有基于深度学习的印刷电路板(PCB)缺陷检测算法无法同时满足精度和效率要求的问题,提出基于YOLOv3改进的AT-YOLO算法来检测PCB缺陷.将主干网络替换为ResNeSt50,提高特征提取能力,减少参数量.引入SPP模块,融合不同感受野的特征,丰富了特征的表达能力.改进PANet结构替换FPN,插入SE模块提升有效特征图的表达能力,增加1组高分辨率特征图的输入输出,提升对小目标物体的敏感程度,检测尺度由3个增加到4个.使用K-means算法重新聚类生成锚框尺寸,提高了模型的目标检测精度.实验证明,AT-YOLO算法在PCB缺陷检测数据集上的精度均值AP0.5达到98.42%,参数量为3.523×107,平均检测速度为36帧/s,满足精度和效率的要求.  相似文献   

5.
针对公路隧道初期火灾烟火混淆且检测实时性要求高的问题,提出改进YOLOv5s的隧道烟火视觉检测方法.该方法通过在YOLOv5s中引入卷积注意力模块(CBAM),提高对轮廓特征不明显的隧道烟雾及初期火焰重要特征检测的准确率.替换骨干网络中的Focus模块,降低BottleneckCSP的卷积层数目,提升烟火特征提取网络效率.用CIoU替换原有的GIoU损失函数,加快模型的收敛速度.实验以10 000张隧道烟火数据集为训练样本,用YOLOv5s和改进后的YOLOv5s-PRO进行对比试验分析,用2021年3月6日重庆真武山隧道火灾视频数据验证模型.实验结果表明,该算法的检测精度达到91.53%,比YOLOv5s提高了3.21%,检测速度达到6.12 ms,比YOLOv5s提高了0.42 ms,检测精度较高,速度较快,可以应用于实际公路隧道的烟火检测.  相似文献   

6.
由于自然场景中的图像背景复杂、文字排列不规则、光照条件不确定等因素文字检测难度较大,且传统检测方法的效果并不理想。在研究文字分割检测方法PSENet(Progressive Scale Expansion Network)的基础上,提出了一种针对自然场景文字检测的改进方法。该方法由卷积神经网络提取特征模块,再通过渐进式规模扩张对文字区域进行分割检测。改进点主要是使用高精度的语义分割网络RefineNet(Refinement Network)对卷积网络特征提取模块进行优化,且增加较多的残差连接及链式池化,提高网络对文字区域的检测精度。通过对数据集ICDAR2015的实验结果对比表明所提出的改进算法在精度方面略高于改进前,且能更好地解决文字粘连问题。  相似文献   

7.
现有遥感图像目标检测算法存在参数量大、检测速度慢和难以部署于移动设备的问题,为此,本文提出了一种无锚框的轻量级遥感图像目标检测算法.首先设计了DWS-Sandglass轻量化模块以降低模型体积,并改进模型激活函数,以确保检测精度.然后引入无参数注意力模块SimAM,使网络能够专注于更重要的特征信息.最后对无锚框算法的冗余通道进行剪枝操作以减少模型参数量,并通过微调回升精度.在HRSC2016数据集上的实验结果表明,与当前主流的无锚框检测算法相比,该算法在检测精度相当的情况下检测速度更快、模型体积更小,更适合在移动设备部署.  相似文献   

8.
在水下生物检测中,经典目标检测模型由于体积大、参数量多,不适用于微小型水下硬件设备,而现有轻量化模型又难以平衡检测精度和实时性. 针对这一问题,本研究提出了基于改进Mobilenet-YOLOv3的轻量级检测算法CPM-YOLOv3,该算法利用规整通道剪枝算法对Mobilenet-YOLOv3进行剪枝,并将特征提取网络中的SE (squeeze-and-excitation)模块替换成CBAM (convolutional block attention module),实现对网络模型的压缩. 同时,在不同尺寸的检测层中分别加入2个CBAM,在几乎不增加模型大小的情况下提升模型关注目标特征信息的能力. 实验结果表明,CPM-YOLOv3模型大小仅有4.86 MB,与原模型相比大小降低了94.7%,平均检测精度为87.0%,速度为5.1 ms/帧. 相较于其他网络模型,CPM-YOLOv3更适合在微小型水下设备中应用.  相似文献   

9.
高精度的三维目标检测是实现物体感知的关键技术,对自动驾驶、机器人控制等应用的落地具有重要意义.为提高三维目标检测的精度,对算法VoteNet改进,提出了一种基于残差网络的端到端的高精度三维点云目标检测网络ResVoteNet.具体来说,设计了适用于点云数据的残差网络骨架,提出了残差特征提取模块以及残差上采样模块,并集成...  相似文献   

10.
针对单阶段多边框检测算法(SSD)存在对小目标检测误差较大的问题,提出基于特征优化与深层次融合的目标检测算法,通过空间通道特征增强(SCFE)模块和深层次特征金字塔网络(DFPN)改进SSD. SCFE模块基于局部空间特征增强和全局通道特征增强机制优化特征层,注重特征层的细节信息;DFPN基于残差空间通道增强模块改进特征金字塔网络,使不同尺度特征层进行深层次特征融合,提升目标检测精度. 在训练阶段添加样本加权训练策略,使网络注重训练定位良好的样本和置信度高的样本. 实验结果表明,在PASCAL VOC数据集上,所提算法在保证速度的同时检测精度由SSD的77.2%提升至79.7%;在COCO数据集上,所提算法的检测精度由SSD的25.6%提升至30.1%,对小目标的检测精度由SSD的6.8%提升至13.3%.  相似文献   

11.
针对传统目标检测算法(SSD)检测小目标精度低的问题,提出基于注意力机制与多尺度信息融合方法并将其运用于车辆检测任务. 结合浅层特征图与深层特征图的优势,小目标检测分支和大中型目标检测分支的特征图采用5支路和2支路融合. 在基础网络层之间加入注意力机制模块,模型会关注包含更多信息量的通道. 实验结果表明,在自建车辆数据集上的均值平均精度(mAP)达到90.2%,比传统SSD算法提高了10.0%,其中小目标检测精度提高了17.9%;在PASCAL VOC 2012数据集上的类别平均精度mAP为83.1%,比主流的YOLOv5算法提高了6.4%. 此外,提出算法在GTX1 660 Ti PC端的检测速度可以达到25 帧/s,能够满足实时性的需求.  相似文献   

12.
针对道路场景检测忽略法线属性的问题,为了加强对空间上下文和边缘信息的利用,提出结合空间上下文算法的道路场景法线区域分割方法,将道路场景识别为路面和障碍物分别对应的水平区域和竖直区域. 在交叉熵损失函数的基础上添加障碍物增强损失,改善训练过程不同分类的权重分配,提高小区域障碍物识别率. 提出上下文改进算法优化位置关联图的矩阵计算方式,减少空间复杂度提高运算效率. 嵌入边缘上下文模块削减噪声并强化主要边缘,加强边缘信息的利用. 在自建数据集和Cityscapes数据集的实验结果表明,与主流的语义分割方法相比,本研究方法加强网络特征提取能力,能有效提高对道路法线区域的分割准确度,相较Deeplab, 交并比提高了2.1%,能简单有效地实现避障任务.  相似文献   

13.
旋转框定位的多尺度再生物品目标检测算法   总被引:1,自引:0,他引:1  
针对传统目标检测算法未考虑实际分拣场景目标物形态尺度的多样性,无法获取旋转角度信息的问题,提出基于YOLOv5的改进算法MR2-YOLOv5. 通过添加角度预测分支,引入环形平滑标签(CSL)角度分类方法,完成旋转角度精准检测. 增加目标检测层用于提升模型不同尺度检测能力,在主干网络末端利用Transformer注意力机制对各通道赋予不同的权重,强化特征提取. 利用主干网络提取到的不同层次特征图输入BiFPN网络结构中,开展多尺度特征融合. 实验结果表明,MR2-YOLOv5在自制数据集上的均值平均精度(mAP)为90.56%,较仅添加角度预测分支的YOLOv5s基础网络提升5.36%;对于遮挡、透明、变形等目标物,均可以识别类别和旋转角度,图像单帧检测时间为0.02~0.03 s,满足分拣场景对目标检测算法的性能需求.  相似文献   

14.
针对基于语义分割的车道线检测方法存在的特征表述模糊、语义信息利用率较低的问题,采用实例分割算法,提出基于改进混合任务级联(HTC)网络的车道线检测方法. 基于HTC网络模型,在主干网络中引入可变形卷积,提升主干网络对复杂环境中车道线特征的提取能力. 改进特征金字塔网络结构,在特征金字塔网络的基础上添加自底向上的低层特征传递路径,引入空洞卷积,在不损失车道线特征信息的情况下增加特征图感受野,利用低层特征中所包含的车道线的精确定位信息,提高车道线的检测精度. 实验结果表明,改进HTC网络模型可以实现车道线特征的鲁棒提取,在复杂道路环境中可以获得较好的检测性能,有效提高了车道线检测精度.  相似文献   

15.
遥感图像存在背景复杂、目标尺度差异大且密集分布等不足,为提高现有算法的检测效果提出联合多尺度与注意力机制的遥感图像目标检测算法. 改进空洞空间金字塔池化模块,增大不同尺寸图像的感受野;提出注意力模块用于学习特征图通道信息和空间位置信息,提升算法对复杂背景下遥感图像目标区域的特征提取能力;引入加权双向特征金字塔网络结构与主干网结合来增进多层次特征的融合;使用基于距离的非极大值抑制方法进行后处理,改善检测框易重叠的问题. 在DIOR和NWPUVHR-10数据集上的实验结果表明:所提算法的平均精度均值mAP分别达到71.6%和91.6%,相比于主流的YOLOv5s算法分别提升了2.9%和1.5%. 所提算法对复杂遥感图像取得了更好的检测效果.  相似文献   

16.
Considering the shortcomings of the white-box CLEFIA algorithm (Su-white-box CLEFIA algorithm) implemented by Su Shuai et al with perturbations technology, the analytical method of Michiels et al can recover the master key in a time complexity of no more than 2.5×229. In order to ensure that the CLEFIA algorithm runs safely in a white-box attack context, a white-box implementation scheme (new white-box CLEFIA algorithm) based on the lookup table technology is proposed, which requires 36.034MB of memory space. The white-box diversity values corresponding to the two types of lookup tables in this scheme are 2829 and 2813, respectively, and the time complexity for the affine equivalent algorithm can reach O(276). This scheme can effectively resist code extraction attacks, key extraction attacks, attacks by Michiels et al and analysis by De Mulder.  相似文献   

17.
在无人机航拍视频烟雾检测领域中,由于不同检测场景差异大,导致现有烟雾检测算法经常出现检测精度低、速度慢等问题。为了解决以上问题,建立了一个基于无人机视角的多类场景下的烟雾数据集(UAV smoke dataset,USD),并提出了一种改进YOLOx的多类场景下无人机视频烟雾检测算法。首先,在YOLOx网络模型中引入改进的注意力机制,分别改进通道特征和空间特征的提取过程,提取更加具有表征能力的烟雾特征;然后,提出一种双向特征融合模块,增强多尺度特征融合模块对小目标烟雾特征的融合能力;最后,引入Focal-EIOU损失函数,解决训练过程中出现正负样本不平衡,以及预测框和真实框不相交时无法反映两个框的距离远近和重合度大小等问题。实验结果表明,所提算法在应用于多类场景下无人机视频烟雾检测任务时具有较好的鲁棒性,对比多个经典烟雾检测算法,本文算法在不同数据集上的烟雾检测准确率均有不同的提升,比如对比原有的YOLOx-s模型,准确率提升2.7%,召回率提升3%,速度达到73.6帧/s。  相似文献   

18.
针对现有车辆车型视觉识别技术中的检测精度不高、难以适应天气环境变化、难以从视频图像中准确提取出用于识别的车辆图像、难以对车辆车型子类进行识别分类、难以兼顾识别精度和检测效率等不足,将深度卷积神经网络引入车辆目标定位、识别和分类(子类)问题中.利用深度卷积神经网络自动完成车型的深度特征学习,在特征图上进行逻辑回归,从道路复杂背景中提取出感兴趣区域;利用softmax分类器训练特征实现车型识别;为了优化softmax在深度卷积神经网络分类过程中出现的类内间距大的问题,引入中心损失函数对softmax损失函数进行优化,提高类间分散性与类内紧密性.在BIT-Vehicle车型数据集中的实验结果显示,提出方法的平均精度为89.67%,检测和识别时间为159 ms;与传统的分类方法相比,识别精度提高约20%,效率提高10倍以上,检测鲁棒性有明显提升;与未改进前的深度卷积神经网络相比,检测精度提高0.6%,速度提高0.29倍.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号