首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 218 毫秒
1.
为提升真实场景视觉信号的采集质量,往往需要通过多种融合方式获取相应的图像,例如,多聚焦、多曝光、多光谱和多模态等。针对视觉信号采集的以上特性,图像融合技术旨在利用同一场景不同视觉信号的优势,生成单图像信息描述,提升视觉低、中、高级任务的性能。目前,依托端对端学习强大的特征提取、表征及重构能力,深度学习已成为图像融合研究的主流技术。与传统图像融合技术相比,基于深度学习的图像融合模型性能显著提高。随着深度学习研究的深入,一些新颖的理论和方法也促进了图像融合技术的发展,如生成对抗网络、注意力机制、视觉Transformer和感知损失函数等。为厘清基于深度学习技术的图像融合研究进展,本文首先介绍了图像融合问题建模,并从传统方法视角逐渐向深度学习视角过渡。具体地,从数据集生成、神经网络构造、损失函数设计、模型优化和性能评估等方面总结了基于深度学习的图像融合研究现状。此外,还讨论了选择性图像融合这类衍生问题建模(如基于高分辨率纹理图融合的深度图增强),回顾了一些基于图像融合实现其他视觉任务的代表性工作。最后,根据现有技术的缺陷,提出目前图像融合技术存在的挑战,并对未来发展趋势给出了展望。  相似文献   

2.
目的 多光谱图像融合是遥感领域中的重要研究问题,变分模型方法和深度学习方法是目前的研究热点,但变分模型方法通常采用线性先验构建融合模型,难以描述自然场景复杂非线性关系,导致成像模型准确性较低,同时存在手动调参的难题;而主流深度学习方法将融合过程当做一个黑盒,忽视了真实物理成像机理,因此,现有融合方法的性能依然有待提升。为了解决上述问题,提出了一种基于可解译深度网络的多光谱图像融合方法。方法 首先构建深度学习先验描述融合图像与全色图像之间的关系,基于多光谱图像是融合图像下采样结果这一认知构建数据保真项,结合深度学习先验和数据保真项建立一种新的多光谱图像融合模型,提升融合模型准确性。采用近端梯度下降法对融合模型进行求解,进一步将求解步骤映射为具有明确物理成像机理的可解译深度网络架构。结果 分别在Gaofen-2和GeoEye-1遥感卫星仿真数据集,以及QuickBird遥感卫星真实数据集上进行了主客观对比实验。相对于经典方法,本文方法的主观视觉效果有了显著提升。在Gaofen-2和GeoEye-1遥感卫星仿真数据集,相对于性能第2的方法,本文方法的客观评价指标全局相对无量纲误差(relat...  相似文献   

3.
黄晓生  徐静 《计算机科学》2021,48(9):181-186
近年来,基于深度学习模型的图像融合方法备受关注.而传统的深度学习模型通常需要耗时长和复杂的训练过程,并且涉及参数众多.针对这些问题,文中提出了一种基于简单的深度学习模型PCANet的非下采样剪切波(Non-Subsanmpled Shearlet Transform,NSST)域多聚焦图像融合方法.首先,利用多聚焦图像训练两阶段PCANet,用于提取图像特征.然后,对输入源图像进行NSST分解,得到源图像的多尺度和多方向表示.低频子带利用训练好的PCANet提取其图像特征,并利用核范数构造有效的特征空间进行图像融合.高频子带利用区域能量取大的融合规则进行融合.最后对根据不同融合规则融合后的频率系数进行NSST重构,获取清晰的目标图像.实验结果表明,所提算法的训练和融合速度比基于CNN的方法提高了43%,该算法的平均梯度、空间频率、熵等融合性能分别为5.744,15.560和7.059,可以与现有融合方法相媲美或优于现有的融合方法.  相似文献   

4.
如何将多张图像中的互补信息保存到一张图像中用于全面表征场景是具有挑战性的课题。基于此课题,大量的图像融合方法被提出。红外可见光图像融合(IVIF)作为图像融合中一个重要分支,在语义分割、目标检测和军事侦察等实际领域都有着广泛的应用。近年来,深度学习技术引领了图像融合的发展方向,研究人员利用深度学习针对IVIF方向进行了探索。相关实验工作证明了应用深度学习方法来完成IVIF相较于传统方法有着显著优势。对基于深度学习的IVIF前沿算法进行了详细的分析论述。首先,从网络架构、方法创新以及局限性等方面报告了领域内的方法研究现状。其次,对IVIF方法中常用的数据集进行了简要介绍并给出了定量实验中常用评价指标的定义。对提到的一些具有代表性的方法进行了图像融合和语义分割的定性评估、定量评估实验以及融合效率分析实验来全方面地评估方法的性能。最后,给出了实验结论并对领域内未来可能的研究方向进行了展望。  相似文献   

5.
受相机景深的限制,单次成像无法对不同景深的内容全部清晰成像.多聚焦图像融合技术可以将不同聚焦层次的图像融合为一幅全聚焦的图像,其中如何得到准确的聚焦映射是多聚焦图像融合中的关键问题.对此,利用卷积神经网络强大的特征提取能力,设计具有公共分支和私有分支的联合卷积自编码网络以学习多源图像的特征,公共分支学习多幅图像之间的公共特征,每幅图像的私有分支学习该图像区别于其他图像的私有特征.基于私有特征计算图像的活动测度,得到图像聚焦区域映射,据此设计融合规则以融合两幅多聚焦图像,最终得到全聚焦的融合图像.在公开数据集上的对比实验结果显示:主观评测上,所提出的方法能够较好地融合聚焦区域,视觉效果自然清晰;客观指标上,该方法在多个评价指标上优于对比方法.  相似文献   

6.
一种自适应的多聚焦图像融合方法   总被引:8,自引:1,他引:8       下载免费PDF全文
为了对不同的多聚焦图像进行有效融合,提出了一种小波域中基于区域特征的自适应多聚焦图像融合方法。该方法首先对参加融合的两幅图像进行小波分解,然后针对低频部分,在保留源图像共同特征的基础上,将待融合的两图像各自所具有的特征添加到融合图像中,而对于高频部分,则根据区域的小波能量进行融合;最后通过小波逆变换来重构融合图像。该方法不仅能够完全自适应地对多聚焦图像进行有效的融合,而且对于各种不同的源图像具有通用性。实验表明,该算法能够得到良好的融合效果,是一种有效的多聚焦图像融合方法。  相似文献   

7.
Bayer阵列图像去马赛克技术是对稀疏采样的Bayer阵列图像进行RGB信息重建,图像重建质量是成像设备评价的重要因素之一,同时也对其他计算机视觉任务(如图像分割、人脸识别)产生影响。随着深度学习方法的快速发展,图像去马赛克领域提出了多种高性能算法。为了便于研究者更全面了解图像去马赛克算法的原理和研究进展,本文对该领域的经典算法和深度学习算法进行综述。首先对Bayer采样阵列原理和图像去马赛克技术进行概述。然后将现有方法分为传统方法和基于深度学习方法两类进行总结,同时根据去马赛克任务是否具有独立性,将深度学习方法分为独立去马赛克任务和联合去马赛克任务两类,分析不同方法的原理和优缺点,重点阐述基于深度学习的去马赛克方法的网络结构和重建机理,介绍去马赛克领域常用的公共数据集和性能评价指标,并对图像去马赛克相关实验进行分析对比。最后,围绕网络深度、运算效率和实用性等方面分析了现阶段图像去马赛克技术面临的挑战及未来发展方向。目前,基于深度学习的图像去马赛克方法已成为主流发展方向,但仍然存在计算成本较高、实际应用性不强等问题。因此,如何开发出重建精度高、处理时间短以及实用性强的图像去马赛克方法,是该领域未来重要的研究方向。  相似文献   

8.
针对多幅图像的匹配和识别问题,提出了一种基于图结构的全自动识别与拼接方法.该方法能够根据用户输入的多幅无序图像,自动判别图像之间是否具有重叠部分,并对具有重叠的图像进行拼接.对输入的每一幅图像进行MOPS特征检测,通过k-d树的最近邻搜索完成不同图像特征之间的快速匹配.其次基于图像特征之间的对应关系使用RANSAC算法建立任意两幅图像之间的匹配模型,并用概率算法进行鲁棒校验.通过构建与图像匹配关系对应的无向连通图结构,实现多幅全景图像的自动识别.使用递归算法对无向连通图进行深度优先遍历,并用多频带融合算法消除拼接痕迹,合成相应的全景图像序列.  相似文献   

9.
深度学习技术应用到多聚焦图像融合领域时,其大多通过监督学习的方式来训练网络,但由于缺乏专用于多聚焦图像融合的监督训练的标记数据集,且制作专用的大规模标记训练集代价过高,所以现有方法多通过在聚焦图像中随机添加高斯模糊进行监督学习,这导致网络训练难度大,很难实现理想的融合效果。为解决以上问题,提出了一种易实现且融合效果好的多聚焦图像融合方法。通过在易获取的无标记数据集上以无监督学习方式训练引入了注意力机制的encoder-decoder网络模型,获得输入源图像的深层特征。再通过形态聚焦检测对获取的特征进行活动水平测量生成初始决策图。运用一致性验证方法对初始决策图优化,得到最终的决策图。融合图像质量在主观视觉和客观指标两方面上进行评定,经实验结果表明,融合图像清晰度高,保有细节丰富且失真度小。  相似文献   

10.
张攀 《微型电脑应用》2012,28(9):59-60,65
多聚焦图像融合,是将两幅(或多幅)对同一场景的各个目标,聚焦不同的图像融合成一幅清晰的新图像.在多聚焦图像融合中,典型的群智能算法图像融合方法取得了较好的效果,如遗传算法、粒子群算法等.目前,对群智能算法的优化改进,加快图像的融合速度是一个主要的研究方向.  相似文献   

11.
医学图像配准对医学图像处理和分析至关重要, 由于定量磁敏感图像 (quantitative susceptibility mapping, QSM) 与T1加权图像的灰度、纹理等信息存在较大的差异, 现有的医学图像配准算法难以高效精确地完成两者配准. 因此, 本文提出了一个基于残差融合的无监督深度学习配准模型RF-RegNet (residual fusion registration network, RF-RegNet). RF-RegNet由编解码器、重采样器以及上下文自相似特征提取器3部分组成. 编解码器用于提取待配准图像对的特征和预测两者的位移矢量场 (displacement vector field, DVF), 重采样器根据估计的DVF对浮动QSM图像重采样, 上下文自相似特征提取器分别用于提取参考T1加权图像和重采样后的QSM图像的上下文自相似特征并计算两者的平均绝对误差 (mean absolute error, MAE) 以驱动卷积神经网络 (convolutional neural network, ConvNet) 学习. 实验结果表明本文提出的方法显著地提高了QSM图像与T1加权图像的配准精度, 满足临床的配准需求.  相似文献   

12.
谢勤岚  桑农 《计算机工程》2009,35(8):239-240
提出一种基于多帧低分辨图像融合的超分辨率图像恢复算法。将多帧低分辨图像融合成一帧与高分辨图像分辨率一致的图像,并对其中一幅低分辨图像插值,形成迭代恢复算法的初始值,在此基础上以Tikhonov正则化方法求解原始高分辨图像。分析和实验结果表明,该算法具有良好的鲁棒性,并且计算速度较快。  相似文献   

13.
由于高光谱图像包含了丰富的光谱、空间和辐射信息,且具有光谱接近连续、图谱合一的特性,可用于地质勘探、精细农业、生态环境、城市遥感以及军事目标检测等领域的目标精准分类与识别。对高光谱图像进行空谱特征提取是遥感领域的研究热点和前沿课题之一。传统空谱特征提取方法对高光谱图像分类的计算量和样本需求小、理论可解释性好、抗噪声能力强,但应用于分类的精度受限于特征来源;基于深度学习的高光谱图像空谱特征提取方法虽然计算量和样本需求大,但是由于深层空谱特征的表达能力更好,可以大幅度提高分类器的性能。为了便于对高光谱图像空谱特征提取领域进行更深入有效的探索,本文系统综述了相关研究进展。首先,概述了空间纹理与形态学特征提取、空间邻域信息获取及空间信息后处理等传统高光谱空谱特征提取方法的原理,对大量的已有工作进行了梳理、分析与总结。然后,从深度空谱特征提取角度出发,介绍了当前流行的卷积神经网络、图卷积神经网络及跨场景多源数据模型的结构特点及研究进展,分析、评价了基于深度学习的网络模型对高光谱图像空谱特征提取的优势及问题所在。最后,对该研究领域的未来相关发展提出建议并进行了展望。  相似文献   

14.
传统的图像融合算法多有计算复杂程度高、不能有效提取图像纹理等不足,为了弥补以上传统算法,提出了一种基于孪生卷积神经网络(Siamese Convolutional Neural Network,Siamese CNN)的图像融合方法.首先,用孪生卷积神经网络生成一个权重图,该权重图包含了来自两个待融合图像的全部像素信息.然后,用图像金字塔对像素以多尺度的方式进行融合,并且采用了局部相似性策略自适应调整分解系数的融合模式.最后,和现存的几种图像融合的方法进行了对比.实验证明,该方法有较好的融合效果,具有一定的可实用性.  相似文献   

15.
目的 伪造图像给众多行业埋下了隐患,这会造成大量潜在的经济损失。方法 提出一种边缘引导的双注意力图像拼接检测网络(boundary-guided dual attention network,BDA-Net),该网络通过将空间通道依赖和边缘预测集成到网络提取的特征中来得到预测结果。首先,提出一种称为预测分支的编解码模型,该分支作为模型的主干网络,可以提取和融合不同分辨率的特征图。其次,为了捕捉不同维度的依赖关系并增强网络对感兴趣区域的关注能力,设计了一个沿多维度进行特征编码的坐标—空间注意力模块(coordinate-spatial attention module,CSAM)。最后,设计了一条边缘引导分支来捕获篡改区域和非篡改区域之间的微小边缘痕迹,以辅助预测分支进行更好的分割。结果 实验使用4个图像拼接数据集与多种方法进行比较,评价指标为F1值。在Columbia数据集中,与排名第1的模型相比,F1值仅相差1.6%。在NIST16 Splicing(National Institute of Standards and Technology 16 Splicing)数据集中,F1值与最好的模型略有差距。而在检测难度更高的CASIA2.0 Splicing(Chinese Academy of Sciences Institute of Automation Dataset 2.0 Splicing)和IMD2020(Image Manipulated Datasets 2020)数据集中,BDA-Net的F1值相比排名第2的模型分别提高了15.3%和11.9%。为了验证模型的鲁棒性,还对图像施加JPEG压缩、高斯模糊、锐化、高斯噪声和椒盐噪声攻击。实验结果表明,BDA-Net的鲁棒性明显优于其他模型。结论 本文方法充分利用深度学习模型的优点和图像拼接检测领域的专业知识,能有效提升模型性能。与现有的检测方法相比,具有更强的检测能力和更好的稳定性。  相似文献   

16.
多传感器遥感图像融合是一种遥感信息综合分析与处理的技术,其研究正成为遥感学科领域的热门课题之一。利用自组织特征映射神经网络具有较好的聚类特性,对多源遥感图像进行高水平的分类与融合。通过对GMS 5卫星图像融合前后性质的比较和融合质量的评估,不难发现:融合后的图像不论在视觉效果上还是在噪声特性上都有了很大的改善。  相似文献   

17.
针对FSRCNN模型中存在的特征提取不充分和反卷积带来的人工冗余信息的问题, 本文提出了一种基于多尺度融合卷积神经网络的图像超分辨率重建算法. 首先设计了一种多尺度融合的特征提取通道, 解决对图像不同尺寸信息利用不充分问题; 其次在图像重建部分, 采用子像素卷积进行上采样, 抑制反卷积层带来的人工冗余信息. 与FSRCNN模型相比, 在Set5和Set14数据集中, 2倍放大因子下的PSNR值和SSIM值平均提高了0.14 dB、0.001 0, 在3倍放大因子下平均提高0.48 dB、0.009 1. 实验结果表明, 本文算法可以更大程度的保留图像纹理细节, 提升图像整体重建效果.  相似文献   

18.
基于修正PCNN的多传感器图像融合方法   总被引:4,自引:0,他引:4       下载免费PDF全文
多传感器图像融合技术作为信息融合的重要分支和研究热点,已广泛应用在机器视觉、医疗诊断、军事遥感等领域。为了更好地进行多传感器图像融合,将在图像分割、目标识别等领域具有独特优势的脉冲耦合神经网络(pulse coupled neural network,PCNN)引入到多传感器图像融合领域中来,提出了一种基于修正PCNN的多源图像融合方法,该方法在区域分割的基础上,先提取区域特征,然后由特征指导融合过程;同时,从目标区域相对于背景的显著性出发,提出了一种反映目标区域突出性的新特征,并针对传统PCNN参数无法自动设定的难题,提出了基于修正PCNN的参数自动设定方案。实验结果表明,该方法无论在主观视觉效果,还是客观评价参数上均优于基于多分辨分析的融合算法,且克服了传统像素级融合方法中融合图像模糊、对噪声敏感等不足,尤其适用于图像不能严格配准的应用场合。这对于拓宽PCNN的理论研究和实际应用具有一定价值。  相似文献   

19.
针对现有肺炎医学影像识别研究在浅层网络忽略全局特征导致特征提取不全且模型规模较大的问题, 提出了一种基于CNN和注意力机制的轻量化模型提高肺炎类型的识别效率. 采用轻量化模型结构减少模型参数量, 通过增大卷积核, 引入高效通道注意力和自注意力机制解决网络重要信息丢失和无法提取底层全局信息的问题, 通过双分支并行提取局部和全局信息并使用多尺度通道注意力提高二者融合质量, 使用CLAHE算法优化原始数据. 实验结果表明, 该模型在保证轻量性的同时准确率、灵敏度、特异性较原模型分别提高2.59%, 3.1%, 1.38%, 并优于当前优秀的其他分类模型, 具有更强的实用性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号