首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
在图像的语义分割任务中,不同对象之间像素值存在差异,导致现有的网络模型在图像语义分割过程中丢失图像局部细节信息。针对上述问题,提出一种图像语义分割方法(DECANet)。首先,引入通道注意力网络模块,通过对所有通道的依赖关系进行建模提高网络的表达能力,选择性地学习并强化通道特征,提取有用信息,抑制无用信息。其次,利用改进的空洞空间金字塔池化(ASPP)结构,对提取到的图像卷积特征进行多尺度融合,减少图像细节信息丢失,且在权重参数不改变的情况下提取语义像素位置信息,加快模型的收敛速度。最后,DECANet在PASCAL VOC2012和Cityscapes数据集上的平均交并比分别达81.08%和76%,与现有的先进网络模型相比,检测性能更优,可以有效地捕获局部细节信息,减少图像语义像素分类错误。  相似文献   

2.
针对遥感图像水体分割任务,提出了一种多尺度融合注意力模块改进的UNet网络——A-MSFAM-UNet,该方法在GF-2遥感图像水体分割任务中实现了端到端高分辨率遥感图像水体分割。首先,针对以往注意力模块全局池化操作带来的局部信息不敏感问题,设计了一种多尺度融合注意力模块(MSFAM),该模块使用点卷积融合通道全局信息、深度可分离卷积弥补全局池化造成的信息丢失。MSFAM用于UNet跳跃连接后的特征融合部分重新分配特征点权重以提高特征融合效率,增强网络获取不同尺度信息的能力。其次,空洞卷积用于VGG16主干网络扩展感受野,在不损失分辨率的情况下聚合全局信息。结果表明,A-MSFAM-UNet优于其他通道注意力(SENet、ECANet)改进的UNet,在GF-2水体分割数据集上平均交并比(MIoU)、平均像素精度(MPA)和准确率(Acc)分别达到了96.02%、97.98%和99.26%。  相似文献   

3.
高精度的语义分割结果往往依赖于丰富的空间语义信息与细节信息,但这两者的计算量均较大.为了解决该问题,通过分析图像局部像素具有的相似性,提出了一种基于区域自我注意力的实时语义分割网络.该网络可分别通过一个区域级的自我注意力模块和一个局部交互通道注意力模块计算出特征信息的区域级关联性和通道注意力信息,然后以较少的计算量获取...  相似文献   

4.
针对视网膜血管分割中有标签图像数据有限、血管结构复杂尺度不一且易受病变区域干扰等问题,提出一种多尺度密集注意力网络用于视网膜血管分割。首先,以U-Net架构为基础,引入并行空间和通道挤压激励注意力密集块(scSE-DB)代替传统卷积层,加强特征传播能力,实现了对特征信息的双重校准,使模型能更好地识别血管像素;其次,在网络底端嵌入级联空洞卷积模块,以捕获多尺度血管特征信息,提升网络获取深层语义特征的能力;最后,在公共数据集DRIVE、CHASE_DB1和STARE上进行实验,所提网络的准确率分别为96.50%、96.62%和96.75%,灵敏度分别为84.17%、83.34%和80.39%,特异性分别为98.22%、97.95%和98.67%。所提网络的整体分割性能优于现有多数先进算法。  相似文献   

5.
红外小目标检测是指从低信噪比、复杂背景的红外图像中对小目标进行检测,在海上救援、交通管理等应用中具有重要实际意义。然而,由于图像分辨率低、目标尺寸小以及特征不突出等因素,导致红外目标很容易淹没在包含噪声和杂波的背景中,如何精确检测红外小目标的外形信息仍然是一个挑战。针对上述问题,构建了一种基于多级回归Transformer(HRformer)网络的红外小目标检测算法。具体来说,首先为了在获得多尺度信息的同时尽可能避免原始图像信息的损失,采用像素逆重组(PixelUnShuffle)操作对原始图像下采样来获取不同层级网络的输入,同时采用一种可学习的像素重组(PixelShuffle)操作对每一层级的输出特征图进行上采样,提升了网络的灵活性;接着,为实现网络中不同层级特征之间的信息交互,本文设计了一种包含空间注意力计算分支以及通道注意力计算分支在内的交叉注意力融合(cross attention fusion, CAF)模块实现特征高效融合以及信息互补;最后,为进一步提升网络的检测性能,结合普通Transformer结构具有较大感受野以及基于窗口的Transformer结构具有较少计算复杂...  相似文献   

6.
随着遥感图像分辨率的不断提高,遥感图像目标检测技术获得了更广泛的关注。针对遥感图像中背景复杂噪声多、目标方向任意且目标尺寸变化大等问题,提出一种基于多层级局部自注意力增强的遥感目标检测算法。首先,在Oriented R-CNN骨干网络中引入Swin Transformer特征提取模块,使用具有移位窗口操作和层次设计的Transformer模块对特征提取的语义信息进行多层级局部信息建模。其次,使用Oriented RPN生成高质量的有向候选框。最后,将高斯分布之间的Kullback-Leibler divergence(KLD)作为回归损失函数,使得参数梯度能够根据对象的特征得到动态调整,更加准确地进行检测框的回归。所提算法在DOTA数据集和HRSC2016数据集上的平均精度均值(mAP)分别达77.2%和90.6%,和Oriented R-CNN算法相比,mAP分别提高了1.8个百分点和0.5个百分点。实验结果表明,所提算法能够有效地提高遥感图像目标检测精度。  相似文献   

7.
针对无人机航摄图像中目标尺寸差异大导致的感受野难以同时兼顾不同尺寸物体分割效果的问题,提出了利用两路分支分别提取浅层和深层信息的双路特征融合网络(DSFA-Net)。在编码器中,浅层分支利用三个串行ConvNeXt模块提取高通道数的浅层特征以保留更多空间细节;深层分支利用坐标注意力空洞空间金字塔池化(CA-ASPP)模块为特征图重新分配权重,使网络更加关注尺寸各异的分割目标,获得深层多尺度特征。在解码过程中,网络利用双边引导融合模块为两层特征建立通信以进行分辨率融合,提高层级特征的利用率。所提方法在AeroScapes和Semantic Drone航摄图像数据集上进行了实验,其平均交并比分别达到83.16%和72.09%、平均像素准确率分别达到90.75%和80.34%。与主流的语义分割方法相比,所提方法对于具有较大尺寸差异的目标,分割能力更强,更适用于无人机航摄图像场景下的语义分割任务。  相似文献   

8.
针对遥感图像中目标尺度差异较大和方向分布随机等导致检测精度较低的问题,提出一种基于稀疏掩模Transformer的遥感目标检测方法。该方法以Transformer网络为基础,首先引入角度参量,使其适应遥感目标的旋转特性;其次在特征提取部分以多层级特征金字塔为输入,以应对遥感图像目标尺寸变化大的特点,提高对不同尺度目标的检测效果,尤其对小目标的检测效果提升明显;最后以稀疏-插值注意力模块代替自注意力模块,有效缓解了Transformer网络检测高分辨遥感图像时计算量大的缺陷,并且加快了网络的收敛速度。在大型遥感数据集DOTA上的实验结果表明,所提方法的平均检测精度为78.43%,检测速度为12.5 frame/s,与基准方法相比,平均精度均值(mAP)提高了3.07个百分点,证明了所提方法的有效性。  相似文献   

9.
本文提出了基于可切换空洞卷积与注意力导向的特征金字塔网络(SwitchableDilatedConvolutionsand Attention-guidedFPN,SDA-FPN)模型,通过加入不同空洞率的可切换空洞卷积使模型能够根据任务选择不同感受野的特征图;引入注意力导向模块(Attention-guideModule,AM)增强特征语义信息且减少空洞卷积对文本边界信息的破坏。针对各尺度特征融合不充分导致语义信息丢失,提出了特征增强融合模块(FeatureEnhancementFusionModule,FEFM),通过结合注意力机制增强模型对尺度、空间、任务的感知能力。该方法在公开数据集ICDAR2015取得了较好的检测结果,且召回率有明显的提升。  相似文献   

10.
杨勇  吴峥  张东阳  刘家祥 《信号处理》2020,36(9):1598-1606
为了在图像重建质量和网络参数之间取得较好的平衡,本文提出一种基于渐进式特征增强网络的超分辨率(Super-Resolution,SR)重建算法。该方法主要包含两个模块:浅层信息增强模块和深层信息增强模块。在浅层信息增强模块中,首先利用单层卷积层提取低分辨率(Low-Resolution,LR)图像的浅层信息,再通过我们设计的多尺度注意力块来实现特征的提取和增强。深层信息增强模块先利用残差学习块学习图像的深度信息,然后将得到的深层信息通过设计的多尺度注意力块来获得增强后的深层多尺度信息。最后我们利用跳转连接的方式将首层得到的浅层信息和深层多尺度信息进行像素级相加得到融合特征图,再对其进行上采样操作,得到最终的高分辨率(High-Resolution, HR)图像。实验结果表明,相比于一些主流的深度学习超分辨率方法,本文方法重建得到的图像无论是主观效果还是客观指标,都取得了更好的效果。   相似文献   

11.
近年来,基于骨架的人体动作识别任务因骨架数据的鲁棒性和泛化能力而受到了广泛关注。其中,将人体骨骼建模为时空图的图卷积网络取得了显著的性能。然而图卷积主要通过一系列3D卷积来学习长期交互联系,这种联系偏向于局部并且受到卷积核大小的限制,无法有效地捕获远程依赖关系。该文提出一种协作卷积Transformer网络(Co-ConvT),通过引入Transformer中的自注意力机制建立远程依赖关系,并将其与图卷积神经网络(GCNs)相结合进行动作识别,使模型既能通过图卷积神经网络提取局部信息,也能通过Transformer捕获丰富的远程依赖项。另外,Transformer的自注意力机制在像素级进行计算,因此产生了极大的计算代价,该模型通过将整个网络分为两个阶段,第1阶段使用纯卷积来提取浅层空间特征,第2阶段使用所提出的ConvT块捕获高层语义信息,降低了计算复杂度。此外,原始Transformer中的线性嵌入被替换为卷积嵌入,获得局部空间信息增强,并由此去除了原始模型中的位置编码,使模型更轻量。在两个大规模权威数据集NTU-RGB+D和Kinetics-Skeleton上进行实验验证,该模型分...  相似文献   

12.
街景图像的分割在工业运用中具有十分重要的作用,但是街景图像具有种类繁多、光照多变等特点,此外,街景分割任务在追求准确性的同时要兼顾实时性,以上特点使得该任务具有很大的挑战性.本文针对这一挑战性任务提出了一个由空间路径和细节路径组成的双路径网络(Dual-path Fusion Network,DFNet),其中细节路径利用高分辨率的输入得到丰富的边界信息,空间路径利用细节路径产生的高质量特征图获得足够多的语义信息;网络的开始嵌入了一个可训练的图像预处理模块(Image Preprocessing Module,IPM),该模块可以使光照不同的图像进入网络正式训练之前在RGB通道上具有方差和均值的一致性;经过预处理模块之后的特征图会分别输入到细节路径和空间路径;本文提出了一个条状注意力细化模块(Attention Refinement Module,ARM),并将其放到空间路径的最后,可以将通道级信息和局部条状信息有效结合起来;在网络的最后,利用图像融合模块(Feature Fusion Module,FFM)对两条路径的特征信息进行融合,得到最后的分割结果 .同时,本文还提出了一种基于...  相似文献   

13.
针对目前磁共振脑影像上的脑白质病变分割精度较低、小病灶易漏识的问题,提出一种结合多尺度信息与注意力机制的U-Net改进模型用于脑白质病变分割.首先,引入多尺度卷积模块以拓展网络宽度,提升特征捕获能力.其次,引入混合下采样模块,对粗、细两种粒度的下采样特征进行融合以减少下采样过程中的信息损失;同时,引入跨层融合模块,通过对跳跃连接两端的编、解码信息进行融合,降低对等层间的语义差异.最后,在编码阶段采用分散注意力模式,根据深、浅层的不同特点分别设计空间注意力模块和通道注意力模块,以增强网络对病灶区域的关注度.在MICCAI2017 WMHs分割挑战赛提供的公开数据集上与同任务的其它文献算法进行对比,本文算法在召回率和相似系数的性能评估上均获得了有效提升,分别达到了0.834和0.803,这表明本文算法是一种有效的脑白质病变自动分割算法.  相似文献   

14.
卷积神经网络(Convolutional Neural Network,CNN)和Transformer的混合架构能够有效建模图像的局部与全局特征,已成为遥感图像变化检测任务的主流网络.然而这类网络仍面临着一些挑战. CNN分支中的卷积和池化运算通常会抑制遥感图像中的高频信息,降低目标边界的精度;此外,Transformer分支对图像像素进行等同长程依赖关系建模,忽略了变化目标的形状及语义关联信息,导致网络对变化目标特征的表达不足.为解决上述问题,提出了基于边缘引导和动态可变形Transformer的遥感图像变化检测网络.在CNN分支中设计了边缘信息引导模块,利用高频信息增强目标区域的边缘信息,从而改善变化目标的轮廓精度.同时设计了一种新颖的动态可变形Transformer,能够自适应地匹配形状不同的变化目标,选择与变化相关的特征建模长程依赖关系,以提高网络的特征表达能力.实验结果表明,提出的方法在三个公开数据集LEVIR-CD、CDD和DSIFN-CD上显著提高了检测精度,在变化目标的边界精度和内部完整性方面都明显优于当前的主流网络.  相似文献   

15.
该文提出了一种仅依靠激光探测与测量数据,实现单视图遥感影像数字表面模型(DSM)重建的新方法.该方法基于深度学习技术设计了一种编码-解码结构的语义分割网络,该网络采用多尺度残差融合的编码块与解码(MRFED)块从输入图像中提取语义信息,进而逐像素预测高度值;采用特征图跳跃级联的策略保留输入图像的细节特征和结构信息.该文...  相似文献   

16.
利用深度学习实现遥感影像耕地区域自动化检测,取代人工解译,能有效提升耕地面积统计效率。针对目前存在分割目标尺度大且连续导致分割区域存在欠分割现象,边界区域情况复杂导致边缘分割困难等问题,提出了语义分割算法——Swin Transformer, TransFuse and U-Net (SF-Unet)。为强化网络不同层次特征提取和信息融合能力,提升边缘分割性能,使用U-Net网络替代TransFuse网络中的ResNet50模块;将Vision Transformer (ViT)替换为改进后的Swin Transformer网络,解决大区域的欠分割问题;通过注意力机制构建的Fusion融合模块将2个网络输出特征进行融合,增强模型对目标的语义表示,提高分割的精度。实验表明,SF-Unet语义分割网络在Gaofen Image Dataset (GID)数据集上的交并比(Intersection over Union, IoU)达到了90.57%,分别比U-Net和TransFuse网络提升了6.48%和6.09%,明显提升了耕地遥感影像分割的准确性。  相似文献   

17.
近年来,随着空间感知技术的不断发展,对多源遥感图像的融合处理需求也逐渐增多,如何有效地提取多源图像中的互补信息以完成特定任务成为当前的研究热点。针对多源遥感图像融合语义分割任务中,多源图像的信息冗余和全局特征提取难题,本文提出一种将多光谱图像(Multispectral image, MS)、全色图像(Panchromatic image, PAN)和合成孔径雷达 (Synthetic Aperture Radar, SAR)图像融合的基于Transformer的多源遥感图像语义分割模型Transformer U-Net (TU-Net)。该模型使用通道交换网络(Channel-Exchanging-Network, CEN)对融合支路中的多源遥感特征图进行通道交换,以获得更好的信息互补性,减少数据冗余。同时在特征图拼接后通过带注意力机制的Transformer模块对融合特征图进行全局上下文建模,提取多源遥感图像的全局特征,并以端到端的方式分割多源图像。在MSAW数据集上的训练和验证结果表明,相比目前的多源融合语义分割算法,在F1值和Dice系数上分别提高了3.31%~11.47%和4.87%~8.55%,对建筑物的分割效果提升明显。   相似文献   

18.
现有的图像超分辨率重建算法大多具有极深的网络结构导致参数量过大,并且不能充分提取特征。为了解决以上问题,提出了一种基于增强型多尺度残差网络(EMSRN)的图像超分辨率重建算法。该网络主要由多个增强型多尺度残差块(EMSRB)组成,通过使用残差块和并行的多空洞率的空洞卷积组构建该模块的骨干结构,获取了图像的局部和全局多尺度特征的同时有效减小了网络参数量。在模块最后使用通道注意力机制自适应地对提取到的特征进行加权,使网络更多地关注高频信息。实验结果表明,比起基础的多尺度残差网络,所提算法将峰值信噪比(PSNR)提升了0.53 dB,结构相似性(SSIM)达到了0.9782。相比于增强型深度超分辨率网络,参数量仅为其31.7%,却取得了近似的重建表现。  相似文献   

19.
熊炜  孙鹏  赵迪  刘粤 《光电子.激光》2023,34(11):1158-1167
自然场景文本识别中采用固定大小的卷积核提取视觉特征,后仅进行字符分类的方法,其全局建模能力弱且忽视了文本语义建模的重要性,因此,本文提出一种基于字符注意力的自然场景文本识别方法。首先构建不同于卷积网络的多级efficient Swin Transformer提取特征,其可使不同窗口的特征进行信息交互;其次设计了字符注意力模块(character attention module, CAM),使网络专注于字符区域的特征,以提取识别度更高的视觉特征;并设计语义推理模块(semantic reasoning module, SRM),根据字符的上下文信息对文本序列进行建模,获得语义特征来纠正不易区分或模糊的字符;最后融合视觉和语义特征,分类得到字符识别结果。实验结果表明,在规则文本数据集IC13上识别准确率达到了95.2%,在不规则的弯曲文本数据集CUTE上达到了85.8%,通过消融及对比实验证明了本文提出的方法可行。  相似文献   

20.
针对文本生成图像任务过程中存在图像视觉特征和通道特征信息利用不充分问题,提出一种基于特征增强生成对抗网络(FE-GAN)的文本生成图像方法.首先,在动态记忆读取时,设计二次记忆(MoM)模块来对生成的中间特征进行注意与融合,利用注意力机制在记忆读取时进行第一次视觉特征增强,再将得到的注意力结果和上一个生成器生成的图像特征进行融合,实现第二次图像视觉特征增强.然后,在残差块中引入通道注意力来获取图像特征中的不同语义,提升相似语义通道之间的关联性,实现通道特征增强.最后,将实例归一化上采样块和批量归一化上采样块相结合来提高图像分辨率,同时缓解批量大小对生成效果的影响,提升生成图像风格多样性能力.在CUB-200-2011和Oxford-102数据集上进行的仿真实验表明,所提方法的IS分别达到了4.83和4.13,与DM-GAN相比分别提高了1.68%和5.62%.实验结果表明,FE-GAN生成的图像在细节处理上更好,更加符合文本语义.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号