首页 | 本学科首页   官方微博 | 高级检索  
     

基于生成对抗网络的多聚焦图像融合
引用本文:蒋留兵,张点,潘波,郑朋,车俐.基于生成对抗网络的多聚焦图像融合[J].计算机辅助设计与图形学学报,2021,33(11):1715-1725.
作者姓名:蒋留兵  张点  潘波  郑朋  车俐
作者单位:桂林电子科技大学信息与通信学院 桂林 541004;桂林电子科技大学计算机与信息安全学院 桂林 541004
摘    要:多聚焦图像融合能够融合同一场景下具有不同聚焦部分的一系列图像.为了克服多聚焦图像融合模糊特征提取中存在的不足,提出一种基于U-Net的生成对抗网络模型.首先,生成器采用U-Net和SSE对多聚焦图像的特征进行提取,并完成图像融合;其次,判别器采用卷积层对已知的融合结果和生成器生成的融合图像进行分辨;然后,损失函数采用生成器的对抗损失、映射损失、梯度损失、均方误差损失和判别器对抗损失对生成网络进行参数调节;最后,将生成器、判别器和损失函数组成生成对抗网络模型,并进行实验.Pascal VOC2012数据集作为生成对抗网络的训练集,包括近焦图像、远焦图像、映射图像和融合图像.实验结果证明,该生成对抗网络模型能够有效地提取多聚焦图像中的模糊特征,且融合图像在互信息、相位一致性和感知相似性等方面表现优异.

关 键 词:多聚焦图像融合  U-Net  生成对抗网络  损失函数

Multi-Focus Image Fusion Based on Generative Adversarial Network
Jiang Liubing,Zhang Dian,Pan Bo,Zheng Peng,Che Li.Multi-Focus Image Fusion Based on Generative Adversarial Network[J].Journal of Computer-Aided Design & Computer Graphics,2021,33(11):1715-1725.
Authors:Jiang Liubing  Zhang Dian  Pan Bo  Zheng Peng  Che Li
Abstract:
Keywords:
本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号