首页 | 本学科首页   官方微博 | 高级检索  
     

结合双注意力和结构相似度量的图像超分辨率重建网络
引用本文:黄友文,唐欣,周斌.结合双注意力和结构相似度量的图像超分辨率重建网络[J].液晶与显示,2022(3):367-375.
作者姓名:黄友文  唐欣  周斌
作者单位:江西理工大学信息工程学院
基金项目:江西省教育厅科技项目(No.GJJ180443)~~;
摘    要:针对低分辨率图像到高分辨率图像的映射函数解空间极大,导致超分辨率重建模型难以产生细致纹理的问题,本文提出一种结合双注意力和结构相似度量的图像超分辨率重建网络。以改进的U-Net网络模型作为基本结构,引入针对低级别视觉任务的数据增强方法,增加样本多样性。编码器部分由卷积层和自适应参数线性整流激活函数(Dynamic ReLU)组成。同时引入了一种残差双注意力模块(Residual Dual Attention Module, RDAM)与像素重组(PixelShuffle)模块共同构成解码器,通过上采样操作,逐级放大图像。为了使生成图像更加符合人眼视觉特性,采用了一种结合结构相似度量准则的损失函数,增强网络约束。实验结果表明:重建图像的质量对比SRCNN,在Set5、Set14、BSD100和Urban100标准测试集上的平均PSNR提升约1.64 dB,SSIM提升约0.047。本文方法能够使重建的图像纹理细节更丰富,有效地减少了映射函数可能的解空间。

关 键 词:超分辨率  U-Net网络  数据增强  双注意力  结构相似
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号