首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
针对单阶段多边框检测算法(SSD)存在对小目标检测误差较大的问题,提出基于特征优化与深层次融合的目标检测算法,通过空间通道特征增强(SCFE)模块和深层次特征金字塔网络(DFPN)改进SSD. SCFE模块基于局部空间特征增强和全局通道特征增强机制优化特征层,注重特征层的细节信息;DFPN基于残差空间通道增强模块改进特征金字塔网络,使不同尺度特征层进行深层次特征融合,提升目标检测精度.在训练阶段添加样本加权训练策略,使网络注重训练定位良好的样本和置信度高的样本.实验结果表明,在PASCAL VOC数据集上,所提算法在保证速度的同时检测精度由SSD的77.2%提升至79.7%;在COCO数据集上,所提算法的检测精度由SSD的25.6%提升至30.1%,对小目标的检测精度由SSD的6.8%提升至13.3%.  相似文献   

2.
提出一种改进的多类别单阶检测器(SSD)算法. 借鉴特征金字塔算法的思想,将Conv4-3层的特征与Conv7、Conv3-3层的特征进行融合,同时增加融合后特征图每个位置对应的默认框数量. 在网络结构中增加裁剪-权重分配网络(SENet),对每层的特征通道进行权重分配,提升有用的特征权重并抑制无效的特征权重. 为了增强网络的泛化能力,对训练数据集进行一系列增强处理. 实验结果表明,改进后的算法在VOC数据集(07+12)上的检测效果良好,平均精度均值为80.4%,比改进前的算法提高了2.7%;在COCO数据集(2017)上的平均精度均值为42.5%,比改进前的算法提高了2.3%. 所提算法能够准确检测出不小于16×16像素的目标.  相似文献   

3.
基于注意力机制和多层次特征融合的目标检测算法   总被引:1,自引:0,他引:1  
为了提高目标检测的准确率,提出一种基于注意力机制和多层次特征融合的图像目标检测算法。该算法在Cascade R-CNN模型的基础上,以RseNet50为主干网络,通过嵌入简单的注意力模块(SAM)来提高网络的判别能力;其次,利用深度可分离卷积改进特征金字塔网络(FPN),设计了多层次特征融合模块(MFFM),对多尺度特征进行融合,以丰富特征图的信息量,并对不同层次的特征图赋予相应的权重以平衡不同尺度的特征信息;最后,结合目标检测方法中的区域建议网络(RPN)结构获取目标的候选区域进行分类和回归处理,确定检测目标的位置和类别。实验结果表明,相较于Cascade R-CNN目标检测算法,该算法的检测精度提升了约2.0%。  相似文献   

4.
为了提高新型冠状病毒肺炎(COVID-19)检测的效率和准确性,本文提出一种自动识别COVID-19胸部X射线(Chest X Ray,CXR)图像的网络模型(MHRA-RCNet)。在ResNet50的基础上,首先采用残差卷积对CXR图像中形状复杂的感染区域进行局部特征提取;其次选择在ResNet50的二、三阶段引入多头关系聚合模块,以增强对全局信息的建模能力;为了进一步将局部信息和全局信息进行融合,以提高特征的表达能力和特征之间位置的相关性,本文还在ResNet50的最后阶段引入了空洞视觉Transforme模块,有助于识别CXR图像中复杂的病变区域;最后将融合后的特征以串联方式输入全局平均池化层进行全局空间信息整合,通过多层感知机进行图像分类并进行可视化分析。在公开访问的COVID-19 Radiography Database数据集上进行图像分类,实验结果显示,MHRA-RCNet模型在多项指标上均优于其基础模型ResNet50和其他分类模型,其整体准确率、精确度、灵敏度、特异性和F1分别提高到98.12%、97.36%、96.60%、98.47%和96.98%,证明了MHRA-RCNet模型在图像分类任务上的有效性。另外,MHRA-RCNet模型对新冠肺炎识别的精确度、灵敏度和特异性分别为98.32%、97.64%和99.59%,具有较好的识别效果和分类性能。  相似文献   

5.
为解决车号罐号识别中因环境恶劣、字符较小导致的准确率偏低且实时性较差等问题,提出一种基于改进YOLOv5的轻量级检测方法.首先通过二阶段检测并增加小目标检测层,进一步采用大尺寸图像输入和数据均衡方法,提升模型检测效果;其次在骨干网络的最后一层引入CA坐标注意力,并制作掩码实现感兴趣区域检测,提升复杂场景下的车号字符检测精度.最后,通过采用GhostNet模块替换骨干网络模块,使模型进一步轻量化.实验结果表明:YOLO-MGCA模型,相较于基线模型map提高了1.4%,模型精度增加了3%,模型参数量减少了40%.  相似文献   

6.
为了提高鼓形滚子表面微小瑕疵缺陷检测的精确率和召回率,增强模型对小目标缺陷的检测能力,针对YOLOv8s网络,提出细粒化卷积模块SPD-Conv来代替卷积下采样,细粒化地提取小缺陷的特征.在特征融合模块,引入GFPN特征融合模块,增强相邻层级间的跨尺度连接和同尺度下的跨层连接,有助于小目标特征信息在卷积网络的传递.在头部增加小目标检测层,提高模型对小缺陷的检测能力.在损失函数方面,利用动态非单调聚焦的Wise-IOU的边界框损失函数替换CIOU,在加快网络收敛的同时,提高网络检测的精度.在自制的鼓形滚子缺陷数据集上进行测试,结果表明,改进的YOLOv8s在倒角数据集、侧面数据集、端面数据集的mAP@0.5分别达到0.911、0.983、0.935,相比于YOLOv8s,m AP@0.5分别提高了6.4%、3.3%、4%,精确度和召回率也有一定的提升,平均每张图片的检测时间为23 ms.与原模型相比,改进的YOLOv8s对小目标缺陷有更好的定位能力和检测精度,检测速度能够满足工业大批量检测的要求.  相似文献   

7.
针对传统胶囊神经网络特征提取结构单一,模型参数量大以及动态路由算法中相似度衡量粗糙等问题,该文提出一种改进的胶囊神经网络.应用Fire Module模块,将网络中特征图通道数先进行压缩,再通过多尺度的卷积核提取特征信息,进而提升网络的特征提取能力和减少网络模型的参数.将Dropout思想引入胶囊神经网络来增加模型的多样...  相似文献   

8.
针对水下图像在生成过程中会受到水下杂质污染以及光的吸收等问题,提出了一种双注意力融合生成对抗网络的水下图像增强模型。该模型使用了最新的Pix2Pix网络架构,并通过构建的双注意力机制结构建立丰富的上下文信息来处理水下图像,在模型生成器UNet网络首部增加了改进型Non-local模块,从多尺度角度获取更多全局特征,从而得到更加清晰的图像,在生成器尾部引入了Transformer模块,通过其优异的多头注意力块和多层感知机等结构来提升模型综合性能,从而进一步提升模型语义信息提取能力。实验结果表明,该模型在基准数据集EUVP上的峰值信噪比、结构相似性、水下图像质量评价指标相比其他模型平均提升了5.83%、4.88%和18.02%,而在基准数据集EUVP上的相应指标平均提升了6.21%、17.33%和15.96%。在主观可视化结果下,该模型也能适当处理图像退化问题,使图像呈现更好的清晰度和对比度。  相似文献   

9.
为了解决违禁品带入公共场合的问题,本文对违禁品的识别进行了研究。在安检仪中,加入改进的YOLOv3网络检测算法,使其能够检测出违禁品,而在基础网络上,引入多维输入图和多分辨率输入图,增加了样本的多样性,有效解决了模型的适应性差的问题。在端到端的网络上,用分层方法进行特征提取和分类,获得不同尺度的特征图,以此来提高网络测试的精度,并采用聚类算法确定目标轮廓,使其能够精准定位。实验结果表明,改进的网络识别目标精度在90%以上,高于原网络的精准度。本网络效果好,具有较高的识别率,且封装在模块中,操作简单。该研究可有效提醒安检员防止违禁品带入公共场合,造成公共事故。  相似文献   

10.
针对行人再识别中待识别对象和目标对象的体态、衣服的颜色等外貌特征非常相似时,模型难以正确识别行人身份这一难点问题,提出了一个基于残差网络ResNet50改进的多尺度特征融合网络.通过利用最后一层特征协同多个中间层特征,采用顶层到下层递进式加和的特征层融合机制来提取行人图像特征,确保模型在总体特征表述基础上,提高对微小细节信息的表征能力.在3个主流的行人再识别公共数据集Market-1501、CUHK03(D)和DukeMTMC-reID上进行了实验,与2018年同类型的行人再识别网络DaRe相比,提出的方法比Market-1501数据集的Rank-1指标提升了2.82%,mAP指标提升了4.32%;比DukeMTMC-reID数据集的Rank-1指标提升了5.45%,mAP指标提升了6.4%.实验结果证明了所提出方法的有效性.  相似文献   

11.
为了解决大多数全卷积网络出现的特征提取单一、遥感图像变化检测(CD)能力差的问题,借助Unet++网络构建用于遥感图像CD的深度监督网络(DSNet).设计多尺度残差模块替换传统卷积层,通过融合孪生网络双分支上的空间与光谱特性,获取遥感图像在不同层次间的语义信息,有效解决了特征提取单一的问题.在模型解码端设计横向输出层,实现节点从低级向高级特征聚合的深度监督过程.将具备信息差异化的不同特征融合结果传输至基于归一化的注意力模块(NAM)中.在不引入额外参数的前提下增强了变化区域的信息权重.实验结果表明,所提模型在遥感图像CD任务中的召回率和精度分别为90.39%和92.04%,模型的参数量和计算量为6.38 M和60 G.与不同网络模型的对比表明,该方法具有检测精度高、速度快和轻量化等优点.  相似文献   

12.
为了在多模态图像检索任务中建立文本特征与图像特征的相关性,提出基于语义增强特征融合的多模态图像检索模型(SEFM).该模型通过文本语义增强模块、图像语义增强模块2部分在特征融合时对组合特征进行语义增强.在文本语义增强模块建立多模态双重注意力机制,利用双重注意力建立文本与图像之间的关联以增强文本语义;在图像语义增强模块引入保留强度和更新强度,控制组合特征中查询图像特征的保留和更新程度.基于以上2个模块可以优化组合特征使其更接近目标图像特征.在MIT-States和Fashion IQ这2个数据集上对该模型进行评估,实验结果表明在多模态图像检索任务上该模型与现有方法相比在召回率和准确率上都有所提升.  相似文献   

13.
对于航拍图像中的小型目标,YOLOv3算法模型对其识别精准度低,在目标被遮挡或目标较密集时存在漏检现象。针对上述问题提出了一种基于改进YOLOv3的航拍目标实时检测方法,该方法加入104×104特征分辨率的检测模块并删减了13×13特征分辨率的检测模块,同时增加了浅层网络的层数,用于提取更加细微的像素特征;在训练阶段针对DOTA-v1.0航拍数据集使用K-means++聚类得到9个先验框进行检测,用于提升整体网络的训练速度。实验结果表明:改进后的YOLOv3检测算法的检出率提升了15.0%,mAP-50提升了10.5%。  相似文献   

14.
针对多尺度单发射击检测(SSD)算法对于复杂背景下小目标物体漏检和误检问题,将特征融合模块和注意力模块相结合来改进SSD算法。在公开光学遥感图像RSOD中Aircraft数据集的试验结果表明:基于改进SSD算法能够实现对复杂背景下遥感影像飞机检测,AP值和F1值分别为76.22%和65%,比SSD算法分别提升了2.39%和6%,改进SSD算法比SSD算法有效增强了复杂场景下检测遥感影像飞机目标的精度,主要来自于小目标物体检测精度的提升。此外,通过消融试验表明特征融合模块比注意力模块对SSD算法检测遥感影像飞机目标精度提升效果更好,将这两个模块相结合来改进SSD算法,能够保持较高的检测速度,加强SSD算法对小目标物体检测能力。  相似文献   

15.
在水下生物检测中,经典目标检测模型由于体积大、参数量多,不适用于微小型水下硬件设备,而现有轻量化模型又难以平衡检测精度和实时性.针对这一问题,本研究提出了基于改进Mobilenet-YOLOv3的轻量级检测算法CPM-YOLOv3,该算法利用规整通道剪枝算法对Mobilenet-YOLOv3进行剪枝,并将特征提取网络中的SE(squeeze-and-excitation)模块替换成CBAM (convolutional block attention module),实现对网络模型的压缩.同时,在不同尺寸的检测层中分别加入2个CBAM,在几乎不增加模型大小的情况下提升模型关注目标特征信息的能力.实验结果表明,CPM-YOLOv3模型大小仅有4.86 MB,与原模型相比大小降低了94.7%,平均检测精度为87.0%,速度为5.1 ms/帧.相较于其他网络模型,CPM-YOLOv3更适合在微小型水下设备中应用.  相似文献   

16.
为了解决传统文本生成图像方法生成图像质量差和文本描述与生成图像不一致问题,以多种损失函数为约束,提出深度融合注意力的生成对抗网络方法(DFA-GAN).采用两阶段图像生成,以单级生成对抗网络(GAN)为主干,将第一阶段生成的初始模糊图像输入第二阶段,对初始图像进行高质量再生成,以提升图像的生成质量.在图像生成的第一阶段,设计视觉文本融合模块,深度融合文本特征与图像特征,将文本信息充分融合在不同尺度的图像采样过程中.在图像生成的第二阶段,为了充分融合图像特征与文本描述词特征,提出以改进后的Vision Transformer为编码器的图像生成器.定量与定性实验结果表明,对比其他主流模型,所提方法提高了生成图像的质量,与文本描述更加符合.  相似文献   

17.
RGB深度图像(RGB–D)显著性目标检测是计算机视觉领域的研究任务之一,很多模型在简单场景下取得了较好的检测效果,却无法有效地处理多目标、深度图质量低下及显著性目标色彩与背景相似等复杂场景。因此,本文提出一种3分支多层次Transformer特征交互的RGB–D显著性目标检测模型。首先,提出一个跨模态坐标注意力模块,该模块通过采用坐标注意力抑制RGB图像和深度图的噪声信息,从而提取出更为显著的特征信息用于后续解码。其次,通过特征融合模块将高层的3层特征图调整到相同的分辨率送入Transformer层,有效地获取远距离显著性目标之间的关联关系和整幅图像的全局信息。然后,提出一个多层次特征交互模块,该模块有效地聚合多层次信息进行特征交互,从而能够更精准地定位显著性目标的位置,同时对显著性目标的边界进行细化。最后,设计一个密集扩张特征细化模块,利用密集扩张卷积获取丰富的多尺度特征,有效地应对显著性目标数量和尺寸变化。将模型在5个公开的基准数据集上与19种主流模型相比,实验结果表明:本文方法在多个测评指标上有较好的提升效果,提高了在特定复杂场景下的检测精度;从P–R(precision–re...  相似文献   

18.
为提高X光安检图像的检测效率和正确率,通过改进局部二值模式算子,给出一种基于有偏彩色纹理字典的X光安检图像自动检测算法。先根据被检测物体的颜色分布构建色彩权值矩阵,提取多通道图像的局部纹理特征,结合词袋模型生成多通道优化的图像字典,再通过色彩加权矩阵映射到有偏彩色纹理字典,并通过训练支持向量机对输入的测试图像进行检测。对于相同训练集与测试集,改进算法能准确对X光安检图像进行目标检测,且检测正确率和查全率均有提升。  相似文献   

19.
针对YOLOv5对金属表面细小缺陷或微观缺陷的检测结果易受背景干扰的问题,提出了一种改进的金属表面缺陷检测算法。通过在主干网络引入坐标注意力机制,提高模型对缺陷的关注度;将主干网络中的一些CBS和C3模块替换为GhostNetV2结构构建轻量级的网络,优化模型的性能和效率;在Neck层采用双向特征融合网络(BiFPN)来增强颈部以产生丰富的表征,加深整个网络并重用低层次的特征。最后,广泛的实验结果表明,CGB-YOLO在NEU-DET上的精度达到75.0%mAP,比改进前提高了3.8%。该模型在金属表面缺陷检测中具有较好的综合性能。  相似文献   

20.
在无人机航拍视频烟雾检测领域中,由于不同检测场景差异大,导致现有烟雾检测算法经常出现检测精度低、速度慢等问题。为了解决以上问题,建立了一个基于无人机视角的多类场景下的烟雾数据集(UAV smoke dataset,USD),并提出了一种改进YOLOx的多类场景下无人机视频烟雾检测算法。首先,在YOLOx网络模型中引入改进的注意力机制,分别改进通道特征和空间特征的提取过程,提取更加具有表征能力的烟雾特征;然后,提出一种双向特征融合模块,增强多尺度特征融合模块对小目标烟雾特征的融合能力;最后,引入Focal-EIOU损失函数,解决训练过程中出现正负样本不平衡,以及预测框和真实框不相交时无法反映两个框的距离远近和重合度大小等问题。实验结果表明,所提算法在应用于多类场景下无人机视频烟雾检测任务时具有较好的鲁棒性,对比多个经典烟雾检测算法,本文算法在不同数据集上的烟雾检测准确率均有不同的提升,比如对比原有的YOLOx-s模型,准确率提升2.7%,召回率提升3%,速度达到73.6帧/s。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号