首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 531 毫秒
1.
为了准确地估计源图像的清晰区域,提高多聚焦图像融合的效率,本文提出了一种新的基于清晰度估计的图像融合方法。首先,利用基于离散小波的清晰度估计方法获取源图像的聚焦区域,然后使用均值滤波和空洞填充进一步优化该聚焦区域,最后结合清晰度估计和相似性特性,将不同聚焦区域合并生成融合图像。该方法获得的融合图像在客观评价和主观质量上都优于以往基于清晰度的图像融合方法。  相似文献   

2.
基于二次成像与清晰度差异的多聚焦图像融合   总被引:1,自引:0,他引:1  
本文提出了一种基于清晰度差异的不同聚焦点图像的融合方法。该方法首先选择了一种基于梯度向量模方和的清晰度定义,然后根据几何光学系统的成像模型,以及点扩散函数的作用效果提出了模拟光学系统的二次成像模型。然后根据二次成像前后各图像清晰度的差异情况,对各幅图像中的目标进行判断,并选择其中的清晰部分生成融合图像。实验结果表明,该方法可以提取出多聚焦图像中的清晰目标,生成的融合图像效果优于Laplacian塔型方法和小波变换方法。  相似文献   

3.
宋宇  李庆玲 《计算机应用》2011,31(7):1815-1817
光学显微视觉系统的主要特点在于景深短,难以获取反映显微场景的全面信息。为解决该问题,提出基于小波分析的光学显微视觉系统景深扩展策略,分为局部清晰图像获取和多聚焦图像融合两个阶段:首先,以定义的小波系数活性水平为依据,构造了新型清晰度评价函数和聚焦曲线全局极值搜索策略来实现快速自动聚焦、获取局部显微场景信息的目的;然后,为实现多局部聚焦显微图像的融合,设计了小波系数活性水平选择型融合规则来融合获取的多个局部显微场景信息。实验表明,提出方法可有效扩展光学显微镜的景深。  相似文献   

4.
基于区域锐度的多聚焦图像融合   总被引:5,自引:2,他引:3       下载免费PDF全文
张素兰  王铮 《计算机工程》2009,35(4):221-222
为了获得同一场景内所有物体都清晰的图像,提出一种新的多聚焦图像融合算法。把待融合图像进行分块,构造融合块的清晰度评价函数(区域锐度),根据其区域锐度值,判断融合块应取自哪幅源图像。采用投票选举的方法对融合图像进行一致性校验,对相邻但来自不同聚焦图像的融合块进行加权融合。实验结果证明,与基于小波分解的融合算法相比,该算法速度快、效果好。  相似文献   

5.
基于图像清晰度的自动聚焦算法   总被引:5,自引:1,他引:5  
在数字监控和机器视觉中,摄像头的焦距可以由计算机根据图像的清晰度自动控制。本文针对监控系统在目标跟踪时对自动聚焦的速度和精度的要求,提出了两次定位、单向搜索的快速精确的聚焦算法。在聚焦精度方面首先针对全局图像进行第一次粗略的聚焦,图像的清晰度判断采用计算速度较快的相邻象素差分法的判断函数;然后再对图像中的目标区域进行第二次精确的聚焦,图像清晰度判断采用对清晰度变化敏感的基于Laplacian边缘检测的判断函数。调焦过程采用最佳焦距位置的单向搜索法,以提高聚焦的速度。实验证明该算法具有较好的实时性和精确性。  相似文献   

6.
针对现有图像域融合算法难以合理度量区域清晰度,导致融合结果出现"振铃"现象的问题,提出一种基于图像区域相对清晰度的多焦距图像融合算法.该算法定义了图像区域的相对清晰度判定指标,并根据多焦距图像像素邻域的相对清晰度来逐个选取聚焦清晰的像素点从而构成融合图像.实验表明,所提算法能取得优于其它算法的融合效果;特别是,它能较好保留源图像包含的细节信息,从而显著减弱融合结果中的"振铃"现象.  相似文献   

7.
刘涛  张登福  何宜宝 《计算机应用》2010,30(10):2805-2807
针对基于神经网络分割算法计算复杂、运算量大等问题,提出一种根据单焦距图像聚焦区域和失焦区域局部相对清晰度的不同进行区域分割的多聚焦图像融合算法。该算法有效结合了非下采样Contourlet变换(NSCT)在图像分解中的多尺度、方向性、各向异性和平移不变性等特点,利用各方向高频分量的聚类来对低频分量进行分割、融合。实验表明该算法是一种有效的多聚焦图像融合方法。  相似文献   

8.
一种新的基于清晰度的多聚焦图像融合规则   总被引:2,自引:0,他引:2  
针对多聚焦图像,融合过程采用计算单个象素的清晰度时考虑以该象素为中心的邻域,通过对两幅输入图像中的对应部分进行加权组合来形成融合图像。该文提出了一种新的基于清晰度的图像融合规则,即采用保形有理三次插值样条函数来构造权值进行融合,试验结果表明该文提出的方法对于严格配准的多聚焦图像的融合效果比基于多分辨率的小波分解的融合算法好。  相似文献   

9.
基于双树复小波变换的图像融合方法   总被引:4,自引:2,他引:2       下载免费PDF全文
为获得更好的融合效果,提出基于双树复小波变换的图像融合方法。双树复小波变换具有平移不变性、方向选择性等特点,适合进行图像融合,优于传统离散小波变换方法。给出多策略的融合规则,源图像小波变换后低频采用区域清晰度,高频采用区域标准差。灰度多聚焦图像和彩色多聚焦图像的融合实验测试以及评价指标的统计结果,表明了双树复小波变换方法的优势和所用融合规则的有效性。  相似文献   

10.
由于受到拍摄设备、光学镜头景深以及噪声等不同因素的影响,多聚焦图像往往存在边缘弱化问题。为了使多聚焦图像更加清晰,提出基于改进径向基函数插值法的多聚焦图像滤波融合方法。通过能量函数计算图像边缘细节估计误差,建立空间同性误差准则,去除图像边缘噪声,实行滤波保护。利用径向基函数各层网络建立多聚焦图像抑噪模型,减少图像的噪声污染。通过非线性函数恢复像素,在图像空间坐标下分离图像纹理、清晰程度和图像局部特征,提取图像高频信息。利用径向基函数插值引导高频信息,在决策引导下实现图像滤波融合。经过实验证明,所提方法的多聚焦图像融合效果较好,减少了残余噪声,能够实现图像去噪和边缘特征保护,清晰度较高,图像结构性相似度高。  相似文献   

11.
针对现有的多聚焦图像融合方法对聚焦/散焦边界(FDB)信息捕捉不准确的问题,提出了一种新的基于线性稀疏表示和图像抠图的多聚焦图像融合方法。首先,引入一种基于线性稀疏表示的焦点测度,它利用自然图像形成的字典与输入图像在局部窗口上的线性关系,通过求解线性系数来表示图像的焦点信息。然后,利用焦点测度获取源图像的焦点图和一个由聚焦区域、散焦区域以及包含FDB的未知区域组成的三元图,并将三元图作为一个输入,采用图像抠图技术处理源图像的FDB区域,从而得到较精确的全聚焦图像。最后,为了进一步提高融合图像的质量,将得到的全聚焦图像作为新字典实现融合过程的迭代进行,在经过设定的更新次数后得到最终的全聚焦融合图像。实验结果表明,相比于11种最先进的多聚焦图像融合方法,该方法具有较好的融合性能和视觉效果,且有较高的计算效率。  相似文献   

12.
为了克服基于块的融合方法对块的大小敏感以及融合图像中存在伪影等问题,提出一种新的基于四叉树分解和自适应焦点测度的多聚焦图像融合方法。首先,设计一种新的基于修正拉普拉斯能量和(SML)和导向滤波的自适应焦点测度,用于获得源图像的焦点图。然后,采用一种新的四叉树分解策略,并结合已经得到的焦点图,进一步将源图像分解成最优大小的树块;同时,从树块中检测出聚焦区域,并构成决策图。最后,对决策图进行优化和一致性验证,并重构出一幅全聚焦图像。通过公共多聚焦图像数据集进行实验,与11种先进的融合方法进行视觉质量和客观指标比较。实验结果表明,本文所提出的融合方法取得了更好的性能。  相似文献   

13.
针对多聚焦图像融合容易出现信息丢失、块效应明显等问题,提出了一种新的基于图像抠图技术的多聚焦图像融合算法。首先,通过聚焦检测获得源图像的聚焦信息,并根据所有源图像的聚焦信息生成融合图像的三分图,即前景、背景和未知区域;然后,利用图像抠图技术,根据三分图获得每一幅源图像的精确聚焦区域;最后,将这些聚焦区域结合起来构成融合图像的前景和背景,并根据抠图算法得到的确定前景、背景对未知区域进行最优融合,增强融合图像前景、背景与未知区域相邻像素之间的联系,实现图像融合。实验结果表明,与传统算法相比,所提算法在客观评价方面能获得更高的互信息量(MI)和边缘保持度,在主观评价方面能有效抑制块明显效应,得到更优的视觉效果。该算法可以应用到目标识别、计算机视觉等领域,以期得到更优的融合效果。  相似文献   

14.
针对多聚焦图像融合中难以有效检测聚焦点的问题,提出了一种基于鲁棒主成分分析(RPCA)和区域检测的多聚焦图像融合方法。将RPCA理论运用到多聚焦图像融合中,把源图像分解为稀疏图像和低秩图像;对稀疏矩阵采用区域检测的方法得到源图像的聚焦判决图;对聚焦判决图进行三方向一致性和区域生长法处理得到最终决策图;根据最终决策图对源图像进行融合。实验结果表明,在主观评价方面,所提出的方法在对比度、纹理清晰度、亮度等几方面都有显著的提高;在客观评价方面,用标准差、平均梯度、空间频率和互信息四项评价指标说明了该方法的有效性。  相似文献   

15.
16.
Anisotropic blur and mis-registration frequently happen in multi-focus images due to object or camera motion. These factors severely degrade the fusion quality of multi-focus images. In this paper, we present a novel multi-scale weighted gradient-based fusion method to solve this problem. This method is based on a multi-scale structure-based focus measure that reflects the sharpness of edge and corner structures at multiple scales. This focus measure is derived based on an image structure saliency and introduced to determine the gradient weights in the proposed gradient-based fusion method for multi-focus images with a novel multi-scale approach. In particular, we focus on a two-scale scheme, i.e., a large scale and a small scale, to effectively solve the fusion problems raised by anisotropic blur and mis-registration. The large-scale structure-based focus measure is used first to attenuate the impacts of anisotropic blur and mis-registration on the focused region detection, and then the gradient weights near the boundaries of the focused regions are carefully determined by applying the small-scale focus measure. Experimental results clearly demonstrate that the proposed method outperforms the conventional fusion methods in the presence of anisotropic blur and mis-registration.  相似文献   

17.
针对近年在对多聚焦图像融合领域中存在图像融合效果好的方法运算量大、实现起来复杂的问题,在传统的像素级分块融合方法和数学微分中逼近原理的启发下,提出了多聚焦图像在像素级分块逼近的图像融合方法。实验结果表明:该方法在融合效果上已经到达甚至略优于一些文献中提出的方法,而在运算量和运算时间方面要明显优于这些方法,更有利于实际应用中多聚焦图像融合的快速实现。  相似文献   

18.
As is well known, activity level measurement and fusion rule are two crucial factors in image fusion. For most existing fusion methods, either in spatial domain or in a transform domain like wavelet, the activity level measurement is essentially implemented by designing local filters to extract high-frequency details, and the calculated clarity information of different source images are then compared using some elaborately designed rules to obtain a clarity/focus map. Consequently, the focus map contains the integrated clarity information, which is of great significance to various image fusion issues, such as multi-focus image fusion, multi-modal image fusion, etc. However, in order to achieve a satisfactory fusion performance, these two tasks are usually difficult to finish. In this study, we address this problem with a deep learning approach, aiming to learn a direct mapping between source images and focus map. To this end, a deep convolutional neural network (CNN) trained by high-quality image patches and their blurred versions is adopted to encode the mapping. The main novelty of this idea is that the activity level measurement and fusion rule can be jointly generated through learning a CNN model, which overcomes the difficulty faced by the existing fusion methods. Based on the above idea, a new multi-focus image fusion method is primarily proposed in this paper. Experimental results demonstrate that the proposed method can obtain state-of-the-art fusion performance in terms of both visual quality and objective assessment. The computational speed of the proposed method using parallel computing is fast enough for practical usage. The potential of the learned CNN model for some other-type image fusion issues is also briefly exhibited in the experiments.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号