首页 | 本学科首页   官方微博 | 高级检索  
     

跨层细节感知和分组注意力引导的遥感图像语义分割
引用本文:李林娟,贺赟,谢刚,张浩雪,柏艳红.跨层细节感知和分组注意力引导的遥感图像语义分割[J].中国图象图形学报,2024,29(5):1277-1290.
作者姓名:李林娟  贺赟  谢刚  张浩雪  柏艳红
作者单位:太原科技大学电子信息工程学院, 太原 030024;先进控制与装备智能化山西省重点实验室, 太原 030024
基金项目:山西省基础研究计划青年项目(202303021212222);山西省重点研发计划项目(202202010101005);中国高校产学研创新基金项目(2021ZYA11005);山西省基础研究计划面上项目(201901D111247)
摘    要:目的 语义分割是遥感图像智能解译的关键任务之一,遥感图像覆盖面广,背景交叉复杂,且地物尺寸差异性大。现有方法在复杂背景下的多尺度地物上分割效果较差,且分割区域破碎边界不连续。针对上述问题,提出了一种跨层细节感知和分组注意力引导的语义分割模型用于高分辨率遥感图像解析。方法 首先采用结构新颖的ConvNeXt骨干网络,编码输入图像的各层次特征。其次,设计了分组协同注意力模块,分组并行建模通道和空间维度的特征依赖性,通道注意力和空间注意力协同强化重要通道和区域的特征信息。接着,引入了自注意力机制,构建了跨层细节感知模块,利用低层特征中丰富的细节信息,指导高层特征层学习空间细节,保证分割结果的区域完整性和边界连续性。最后,以山西省太原市为研究区域,自制高分辨率遥感太原市城区土地覆盖数据集(Taiyuan urban land cover dataset,TULCD),所提方法实现了太原市城区土地覆盖精细分类任务。结果 实验在自制数据集TULCD和公开数据集Vaihingen上与最新的5种算法进行了比较,所提方法在两个数据集上平均像素准确率(mean pixel accuracy,mPA)为74.23%、87.26%,平均交并比(mean intersection over union,mIoU)为58.91%、77.02%,平均得分mF1为72.24%、86.35%,均优于对比算法。结论 本文提出的高分辨率遥感图像语义分割模型具有较强的空间和细节感知能力,对类间差异小的相邻地物也有较强的鉴别能力,模型的整体分割精度较高。

关 键 词:遥感图像  语义分割  全卷积网络(FCN)  注意力机制  分组卷积
收稿时间:2023/10/11 0:00:00
修稿时间:2023/12/22 0:00:00

Cross-layer detail perception and group attention-guided semantic segmentation network for remote sensing images
Li Linjuan,He Yun,Xie Gang,Zhang Haoxue,Bai Yanhong.Cross-layer detail perception and group attention-guided semantic segmentation network for remote sensing images[J].Journal of Image and Graphics,2024,29(5):1277-1290.
Authors:Li Linjuan  He Yun  Xie Gang  Zhang Haoxue  Bai Yanhong
Affiliation:School of Electronic Information Engineering, Taiyuan University of Science and Technology, Taiyuan 030024, China;Shanxi Key Laboratory of Advanced Control and Equipment Intelligence, Taiyuan 030024, China
Abstract:
Keywords:remote sensing images  semantic segmentation  fully convolutional network(FCN)  attention mechanisms  group convolution
点击此处可从《中国图象图形学报》浏览原始摘要信息
点击此处可从《中国图象图形学报》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号