首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
4.
基于DeepLabV3+进行图像分割时,在特征提取阶段忽略了不同级别的特征图中存在的特征重要程度不同,丢失了大量的细节信息,致使分割效果不佳.针对该问题,提出了一种基于DeepLabV3+与注意力机制相结合的图像语义分割算法.在骨干网络Xception模型中提取两条低级特征作为解码器的输入特征,提高特征提取的准确性;采...  相似文献   

5.
图像描述的任务是根据输入图像自动生成描述该图像的语句,属于计算机视觉与自然语言处理的交叉领域.针对传统注意力机制提取特征能力不足、模型复杂且训练困难等问题,本文提出了一种改进注意力机制的图像描述模型.在传统注意力机制的基础上引入高效通道注意模块,在提升特征提取效果的同时降低模型复杂度,在保证性能的同时提高模型效率,更好...  相似文献   

6.
本文研究的图像语义分割是计算机视觉研究的重要部分,为提高场景图像语义分割的准确率,且考虑到基于全卷积神经网络的双重语义分割模型(Dual-Attention)存在边缘分割不均匀、正负样本不平衡的问题。本文采用边缘模块,增强边缘分割能力并且优化图像的边缘细节;采用一种基于样本距离的损失函数,来调节正负样本。在场景cityscapes数据集上进行了实验与验证,结果表明改进之后的模型单尺度平均交并比(MIoU)相比原算法相对提高2.96%。它能够更加精细地分割目标,较好地解决分割边界不精细,有效地抑制边界区域分割的不均匀问题。  相似文献   

7.
为了提高由图像生成文字描述的准确率,文中提出了一种基于传统的编码解码框架,分别在编码端和解码端融入视觉注意力机制的方法,即在编码端加入空间注意力机制和图像通道级注意力机制相结合的方法。在解码端运用自适应视觉注意力机制的方法,即在传统的解码端上加入一个额外的“视觉哨兵”模块。文中提出的方法在生成文字描述的过程中自动决定是依赖图像特征还是依赖语义特征,并传递给相应的注意力机制。实验证明,相比较单一的视觉注意力机制,文中方法取得了较高的图像描述语句的正确率,具有更好的图像描述性能。  相似文献   

8.
图像去雾工作目前还存在真实数据集过少、局部对比度失衡和去雾图像失真等问题。针对去雾图像失真这一问题,提出一种新型去雾网络模型(Densely Resnet with SKattention-Dehaze Net,DRS-Dehaze Net)。首先带雾图像经预处理模块转换为多角度特征输入图,然后设计密集残差架构并引入注意力机制完成特征信息的提取与再分配,最后将特征融合,输出无雾图像。实验结果表明,所提算法相比于其他对比算法有着较好的去雾效果,有效改善了去雾图像失真问题,且在一定程度上对图像的清晰度进行了提升。  相似文献   

9.
针对传统编解码结构的医学图像分割网络存在特征信息利用率低、泛化能力不足等问题,该文提出了一种结合编解码模式的多尺度语义感知注意力网络(multi-scale semantic perceptual attention network,MSPA-Net) 。首先,该网络在解码路径加入双路径多信息域注意力模块(dual-channel multi-information domain attention module,DMDA) ,提高特征信息的提取能力;其次,网络在级联处加入空洞卷积模块(dense atrous convolution module,DAC) ,扩大卷积感受野;最后,借鉴特征融合思想,设计了可调节多尺度特征融合模块 (adjustable multi-scale feature fusion,AMFF) 和双路自学习循环连接模块(dual self-learning recycle connection module,DCM) ,提升网络的泛化性和鲁棒性。为验证网络的有效性,在CVC-ClinicDB、ETIS-LaribPolypDB、COVID-19 CHEST X-RAY、Kaggle_3m、ISIC2017和Fluorescent Neuronal Cells等数据 集上进行验证,实验结果表明,相似系数分别达到了94.96%、92.40%、99.02%、90.55%、92.32%和75.32%。因此,新的分割网络展现了良好的泛化能力,总体性能优于现有网络,能够较好实现通用医学图像的有效分割。  相似文献   

10.
近些年来.超声威像已经成为医疗临床诊断的重要方法之一。然而超声本身的固有特性导致了超声图像斑点噪声的普遍存在。斑点哚声严重影像了图像细节纹理和边缘的观察.从而给医生对病症的诊断带来困难。因此.国内外许多专家学者对去除斑点哚声、保持图像的边缘细节的进行了大量的研究.同时这也是本篇算法所要挑战的目标。同时由于超声图像的低对比度,通过图像处理对其进行增强也能有效改善人的主观视觉感受。这样形成的图像不仅有利于医生对病症的诊断,而且对后来的图像分割.边缘检测,特征提取以及形成三维超声图像奠定了很好的基础.提供了优质的图像数据。  相似文献   

11.
本文提出了一种新型的多模态脑肿瘤图像分割方法,该方法将3种注意力机制与传统U-Net模型相结合,从三维多模态MRI医学图像中分割脑肿瘤。所提出的模型分为编码器、解码器、特征融合和瓶颈层4部分,各采用不同的注意力机制,增强了多模态信息提取能力。在特征融合部分,提出了一种新的注意力模块—注意力门控传播模块(AGPM),该模块将通道注意力和注意力门结合起来,沿通道维度和空间维度依次推断注意力映射;瓶颈层部分,在卷积层之间应用了一个多头自注意力层(MHSA)来增强感受野。此外,在模型的瓶颈层部分加入了一种新的注意力模块—多头特征增强模块(MHFEM),来补充多尺度信息。通过在BraTS2020数据集上的实验结果,表明了所提模型的有效性。  相似文献   

12.
13.
14.
为了更加准确地根据医学图像进行医学类疾病诊断,可采用U型结构的全卷积神经网络模型对医学图像进行分割,并且可在分割的过程中,引入空间注意力机制和通道注意力机制,分别从空间维度和通道维度提取输入特征图的重要信息和抑制非重要信息。根据该思想,设计了一种基于通道和空间注意力机制的U型Transformer模型(SC U-Transformer)。SC U-Transformer包含编码和解码过程,编码过程使用Swin-Transformer作为编码器,提取上下文特征并实现下采样;解码过程使用包含扩展图像块的对称Swin-Transformer模型,并添加空间注意力模块和通道注意力模块,分别使模型更加关注前景和相关联的特征通道。根据ACDC数据集的实验结果表明,SC U-Transformer能有效提高医学图像分割的准确率。  相似文献   

15.
16.
脊柱侧弯是当今社会中常见的脊柱疾病,在X光图像上快速而准确地定位脊椎骨角点并计算其Cobb角度数是医生诊断脊柱弯曲程度的金指标。针对X光骨科图片中其他器官的遮挡以及复杂背景干扰等问题,提出一种基于嵌入注意力机制和向量损失模块的神经网络模型。所提模型以vertebra-focused landmark detection(VFLD)网络为基础网络,在编码器和解码器之间嵌入旋转注意力机制模块加强网络对于脊椎骨深层、高维特征的提取,抑制其他器官的干扰,同时利用向量相似性的损失函数对网络进行训练。实验结果表明,在MICCAI 2019公开脊椎挑战赛数据集中,所提模型的对称平均绝对百分比误差准确度高达9.31,可以有效提高原模型检测椎骨角点能力。与现有的诸多模型相比,其具有较高的准确率和稳健性。  相似文献   

17.
纪文  孙水发  王帅  董方敏 《激光技术》2014,38(6):848-853
为了分析光学相干层析成像技术(OCT)的图像对数变换前后的斑点噪声分布模型,为图像去噪及其它图像处理过程提供参考,采用了先推导斑点噪声理论分布模型,再通过实验数据验证的方法。首先分析了对数变换前斑点噪声的统计特性,利用数学理论推导得到斑点噪声对数变换后的理论分布模型,然后用OCT心血管图像的平滑区域作为噪声的试验数据,得到变换前后斑点噪声的直方图分布数据,最后用理论分布模型对试验数据进行曲线拟合,取得了确定系数、均方根差和卡方检测的评价数据。结果表明,对数变换后斑点噪声分布符合Fisher-Tippett分布。这一结果对OCT图像去噪等处理过程是有帮助的。  相似文献   

18.
随着5G的发展和多种显示终端的出现,图像重定向算法倍受关注.目前大多数的算法没有考虑到重定向后图像的美学分布,因而影响了人类的视觉美学感知.鉴于此现状,提出了一种基于多层级注意力融合的图像美学评价网络,通过对不同细粒度的特征的提取,并根据注意力机制自适应地融合后获得美学信息,将学习到的美学信息与图像的显著图、梯度图和直...  相似文献   

19.
杨飞 《无线互联科技》2022,(20):135-139
遥感图像的语义分割是图像分割领域的一个重大分支,在城市规划、城乡变化检测以及地理信息等方面有十分广阔的应用,然而由于遥感图像中包含的道路地物等尺度差别大、目标背景分散、背景复杂、边界复杂等特点,精确分割遥感图像是一项具有挑战性的任务。针对这一问题,文章提出了一种基于通道注意力机制的SEU-Net网络,在U-Net网络的基础上引入SE通道注意力模块,利用空洞卷积来提升网络的解析能力,从而提高遥感图像的分割精度,在Massachusetts Roads数据集上表明SEU-Net结构的性能要优于U-Net算法。  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号