首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 209 毫秒
1.
针对目前多聚焦图像融合存在着在融合图像边缘处容易出现伪影和光环等问题,提出了一种新的基于导向滤波和聚焦区域局部标准差的多聚焦图像融合方法。首先,设计了一种新的聚焦区域检测策略,它将导向滤波后的源图像与均值滤波后的源图像相减得到绝对差值图像,并以此作为高频信息而生成粗略聚焦图;粗略聚焦图进一步经过导向滤波增强其高频细节信息,从而得到对应源图像的聚焦区域。然后,根据聚焦区域的局部标准差,利用像素级最大化规则得到初始决策图。最后,通过小区域去除策略和导向滤波优化生成最终决策图,并据此利用像素加权平均规则得到融合后的图像。实验结果表明,论文提出的多聚焦图像融合方法在主观视觉效果和客观评价指标方面的综合性能都优于现有的典型融合方法,且其计算效率也较高。  相似文献   

2.
为建立一个有效的活跃度测量模型来检测多聚焦图像的聚焦区域,针对多数融合方法效率不高和处理源图像未配准问题的不足,提出一种基于多视觉特征和引导滤波的快速鲁棒多聚焦图像融合方法.首先通过分别测量对比度显著性、清晰度和结构显著性这3个互补的视觉特征对源图像聚焦区域进行检测,获得初始的融合决策图;为了充分利用空间一致性并有效抑制融合结果中伪影的产生,利用形态学滤波和引导滤波对初始决策图进行优化,从而获得最终的融合权重图;最后根据优化的权重图对源图像进行加权融合,获得融合图像.实验结果表明,无论是主观视觉效果还是客观定量评价,该方法均优于一些主流的多聚焦图像融合方法.  相似文献   

3.
针对现有的多聚焦图像融合方法对聚焦/散焦边界(FDB)信息捕捉不准确的问题,提出了一种新的基于线性稀疏表示和图像抠图的多聚焦图像融合方法。首先,引入一种基于线性稀疏表示的焦点测度,它利用自然图像形成的字典与输入图像在局部窗口上的线性关系,通过求解线性系数来表示图像的焦点信息。然后,利用焦点测度获取源图像的焦点图和一个由聚焦区域、散焦区域以及包含FDB的未知区域组成的三元图,并将三元图作为一个输入,采用图像抠图技术处理源图像的FDB区域,从而得到较精确的全聚焦图像。最后,为了进一步提高融合图像的质量,将得到的全聚焦图像作为新字典实现融合过程的迭代进行,在经过设定的更新次数后得到最终的全聚焦融合图像。实验结果表明,相比于11种最先进的多聚焦图像融合方法,该方法具有较好的融合性能和视觉效果,且有较高的计算效率。  相似文献   

4.
阁像聚焦区域检测是图像融合、计算机视觉等领域中的一个重要研究方向.聚焦区域属于图像中的显著性区域,仉人部分娩著性区域愉测算法在提取图像聚焦区域是存在一定的问题,不能进行准确分辨和提取.针对现有方法的不足,该文利用近来受到广泛关注的RPCA(Robust Principal Component Analysis)分解技术,提取出能有效表征图像聚焦区域的稀疏特征矩阵,并结合多区域图像分割技术获得聚焦区域.实验结果证明了该文所提方法存获取聚焦区域上的有效性,此外,该文指出基于RPCA的图像分解技术有着广泛的用途.  相似文献   

5.
为了提高基于多尺度变换的多聚焦图像融合中聚焦区域的准确性,提出了一种基于非下采样Shearlet变换(NSST)与聚焦区域检测的多聚焦图像融合算法。首先,通过基于非下采样Shearlet变换的融合方法得到初始融合图像;其次,将初始融合图像与源多聚焦图像作比较,得到初始聚焦区域;接着,利用形态学开闭运算对初始聚焦区域进行修正;最后,在修正的聚焦区域上通过改进的脉冲耦合神经网络(IPCNN)获得融合图像。与经典的基于小波变换、Shearlet变换的融合方法以及当前流行的基于NSST和脉冲耦合神经网络(PCNN)的融合方法相比,所提算法在客观评价指标互信息(MI)、空间频率和转移的边缘信息上均有明显的提高。实验结果表明,所提出的算法能更准确地识别出源图像中的聚焦区域,能从源图像中提取出更多的清晰信息到融合图像。  相似文献   

6.
针对多聚焦图像融合容易出现信息丢失、块效应明显等问题,提出了一种新的基于图像抠图技术的多聚焦图像融合算法。首先,通过聚焦检测获得源图像的聚焦信息,并根据所有源图像的聚焦信息生成融合图像的三分图,即前景、背景和未知区域;然后,利用图像抠图技术,根据三分图获得每一幅源图像的精确聚焦区域;最后,将这些聚焦区域结合起来构成融合图像的前景和背景,并根据抠图算法得到的确定前景、背景对未知区域进行最优融合,增强融合图像前景、背景与未知区域相邻像素之间的联系,实现图像融合。实验结果表明,与传统算法相比,所提算法在客观评价方面能获得更高的互信息量(MI)和边缘保持度,在主观评价方面能有效抑制块明显效应,得到更优的视觉效果。该算法可以应用到目标识别、计算机视觉等领域,以期得到更优的融合效果。  相似文献   

7.
针对传统的多聚焦图像的空间域融合容易出现边缘模糊的问题,提出了一种基于引导滤波(GF)和差分图像的多聚焦图像融合方法。首先,将源图像进行不同水平的GF,并对滤波后图像进行差分,从而获得聚焦特征图像;随后,利用聚焦特征图像的梯度能量(EOG)信息获得初始决策图,对初始决策图进行空间一致性检查以及形态学操作以消除因EOG相近而造成的噪点;然后,对初始决策图进行GF以得到优化后决策图,从而避免融合后的图像存在边缘骤变的问题;最后,基于优化后决策图对源图像进行加权融合,以得到融合图像。选取3组经典的多聚焦图像作为实验图像,将所提方法与其他9种多聚焦图像融合方法得到的结果进行比较。主观视觉效果显示,所提方法能更好地将多聚焦图像的细节信息保存下来,另外,经该方法处理后的图像的4项客观评价指标均显著优于对比方法。结果表明,所提方法能够获得高质量的融合图像,较好地保留原始图像信息,有效解决传统多聚焦图像融合出现的边缘模糊问题。  相似文献   

8.
为了克服基于块的融合方法对块的大小敏感以及融合图像中存在伪影等问题,提出一种新的基于四叉树分解和自适应焦点测度的多聚焦图像融合方法。首先,设计一种新的基于修正拉普拉斯能量和(SML)和导向滤波的自适应焦点测度,用于获得源图像的焦点图。然后,采用一种新的四叉树分解策略,并结合已经得到的焦点图,进一步将源图像分解成最优大小的树块;同时,从树块中检测出聚焦区域,并构成决策图。最后,对决策图进行优化和一致性验证,并重构出一幅全聚焦图像。通过公共多聚焦图像数据集进行实验,与11种先进的融合方法进行视觉质量和客观指标比较。实验结果表明,本文所提出的融合方法取得了更好的性能。  相似文献   

9.
刘栋  周冬明  聂仁灿  侯瑞超 《计算机应用》2018,38(10):3006-3012
针对传统脉冲耦合神经网络(PCNN)无法准确提取多聚焦图像聚焦区域的问题,提出一种利用相位一致性(PC)来检测图像清晰区域,并结合PCNN的多聚焦图像融合算法。首先,利用非下采样轮廓波变换(NSCT)对源图像进行多尺度分解,分别得到图像的高频子带和低频子带;其次,通过计算高频系数的空间频率值(SF)与低频系数的相位一致性值来提取图像高低频子带中的聚焦区域;然后,将SF与PC作为PCNN外部激励来刺激PCNN神经元点火,分别对图像高低频系数进行融合;最后,利用逆NSCT得到最终融合图像。实验采取多聚焦图像Clock、Pepsi和Lab作为三组实验数据集,与传统融合算法及新近提出的几种算法进行对比,所提算法的客观评价参数:互信息、边缘信息度、信息熵、标准差和平均梯度的数值均大于或十分接近于对比算法的最大值;同时从实验结果图与源图像的差值图中可以发现所提算法的差值图包含源图像清晰区域的痕迹明显更少。实验结果表明所提算法能更加准确地提取出图像的清晰区域,更好地保留图像的边缘与纹理等细节信息,得到更好的融合效果。  相似文献   

10.
薛寺中  周爱平  梁久祯 《计算机应用》2010,30(12):3225-3228
针对同一场景多聚焦图像的融合问题,提出了一种基于小波变换的自适应脉冲耦合神经网络(PCNN)图像融合方法。首先,对源图像进行小波分解,得到不同尺度下的子带图像;然后,在小波域中利用PCNN的同步脉冲激发特性,制定基于PCNN的融合规则;使用不同尺度下的小波系数的拉普拉斯能量(EOL)作为对应神经元的链接强度,经过PCNN点火得到源图像在小波域中的点火映射图;通过判决选择算子,选择点火次数多的小波系数作为对应的融合系数,然后进行区域一致性检验,获到最终的融合系数;最后,对融合后的系数进行小波逆变换得到融合图像。实验结果表明,该方法更有效地提取原始图像的特征信息,提高融合图像的视觉效果,在主观视觉效果与客观性能指标上均优于传统的图像融合方法。  相似文献   

11.
12.
针对多聚焦图像融合中缺乏细节保护和结构不连续的不足,提出了一种基于图像分解的多聚焦图像融合算法.首先,源图像采用卡通纹理图像分解得到卡通部分和纹理部分;其次,卡通部分采用卷积稀疏表示的方法进行融合,纹理部分采用字典学习进行融合;最后,将卡通和纹理部分融合得到融合图像.实验建立在标准的融合数据集中,并与传统和最近的融合方法进行比较.实验结果证明,该算法所获得的融合结果在方差和信息熵上具有更好的表现,该算法能够有效克服多聚焦图像融合中缺乏细节保护和结构不连续的缺点,同时有更好的视觉效果.  相似文献   

13.
Multi-focus image fusion aims to extract the focused regions from multiple partially focused images of the same scene and then combine them together to produce a completely focused image. Detecting the focused regions from multiple images is key for multi-focus image fusion. In this paper, we propose a novel boundary finding based multi-focus image fusion algorithm, in which the task of detecting the focused regions is treated as finding the boundaries between the focused and defocused regions from the source images. According to the found boundaries, the source images could be naturally separated into regions with the same focus conditions, i.e., each region is fully focused or defocused. Then, the focused regions can be found out by selecting the regions with greater focus-measures from each pair of regions. To improve the precision of boundary detection and focused region detection, we also present a multi-scale morphological focus-measure, effectiveness of which has been verified by using some quantitative evaluations. Different from the general multi-focus image fusion algorithms, our algorithm fuses the boundary regions and non-boundary regions of the source images respectively, which helps produce a fusion image with good visual quality. Moreover, the experimental results validate that the proposed algorithm outperforms some state-of-the-art image fusion algorithms in both qualitative and quantitative evaluations.  相似文献   

14.

In this paper, a novel region-based multi-focus color image fusion method is proposed, which employs the focused edges extracted from the source images to obtain a fused image with better focus. At first, the edges are obtained from the source images, using two suitable edge operators (Zero-cross and Canny). Then, a block-wise region comparison is performed to extract out the focused edges which have been morphologically dilated, followed by the selection of the largest component to remove isolated points. Any discontinuity in the detected edges is removed by consulting with the edge detection output from the Canny edge operator. The best reconstructed edge image is chosen, which is later converted into a focused region. Finally, the fused image is constructed by selecting pixels from the source images with the help of a prescribed color decision map. The proposed method has been implemented and tested on a set of real 2-D multi-focus image pairs (both gray-scale and color). The algorithm has a competitive performance with respect to the recent fusion methods in terms of subjective and objective evaluation.

  相似文献   

15.
深度学习技术应用到多聚焦图像融合领域时,其大多通过监督学习的方式来训练网络,但由于缺乏专用于多聚焦图像融合的监督训练的标记数据集,且制作专用的大规模标记训练集代价过高,所以现有方法多通过在聚焦图像中随机添加高斯模糊进行监督学习,这导致网络训练难度大,很难实现理想的融合效果。为解决以上问题,提出了一种易实现且融合效果好的多聚焦图像融合方法。通过在易获取的无标记数据集上以无监督学习方式训练引入了注意力机制的encoder-decoder网络模型,获得输入源图像的深层特征。再通过形态聚焦检测对获取的特征进行活动水平测量生成初始决策图。运用一致性验证方法对初始决策图优化,得到最终的决策图。融合图像质量在主观视觉和客观指标两方面上进行评定,经实验结果表明,融合图像清晰度高,保有细节丰富且失真度小。  相似文献   

16.
In this paper, we address the problem of fusing multi-focus images in dynamic scenes. The proposed approach consists of three main steps: first, the focus information of each source image obtained by morphological filtering is used to get the rough segmentation result which is one of the inputs of image matting. Then, image matting technique is applied to obtain the accurate focused region of each source image. Finally, the focused regions are combined together to construct the fused image. Through image matting, the proposed fusion algorithm combines the focus information and the correlations between nearby pixels together, and therefore tends to obtain more accurate fusion result. Experimental results demonstrate the superiority of the proposed method over traditional multi-focus image fusion methods, especially for those images in dynamic scenes.  相似文献   

17.
The goal of image fusion is to accurately and comprehensively describe complementary information of multiple source images in a new scene. Traditional fusion methods are easy to produce side-effects which cause artifacts and blurred edges. To solve these problems, a novel fusion algorithm based on robust principal component analysis (RPCA) and guided filter is proposed. The guided filter can preserve the edges effectively, which is often used to enhance the images without distort the details. Considering edges and flat area are treated differently by the guided filter, in this paper, sparse component of the source image is filtered by the guided filter to generate the enhanced image which contains the preserved edges and the enhanced background. And then the focused regions of the source images are detected by spatial frequency map of the difference images between the enhanced image and the corresponding source image. Finally, morphological algorithm is used to obtain precise fusion decision map. Experimental results show that the proposed method improves the fusion performance obviously which outperforms the current fusion methods.  相似文献   

18.
目的:多聚焦图像融合技术一个关键问题是如何准确地判断待融合图像的清晰度。本文提出了基于归一化结构极值点数目的清晰度判断准则。方法:本文基于图像的局部极值点特性,定义了归一化结构极值点数目这个指标作为清晰度判断准则,同时还给出了利用该准则和融合决策矩阵快速估计技术的多聚焦图像快速融合方法。结果:利用本文提出的清晰度判断准则和融合方法,实验表明上述问题得到了很好的解决。结论:本文提出了一个新的图像清晰度判断准则,该准则判断准确率高,且对脉冲噪声有好的鲁棒性。通过与传统融合方法对两组实验图像融合结果的主客观比较表明,该方法的融合速度和效果比现有多聚焦图像融合方法有明显提高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号