共查询到19条相似文献,搜索用时 62 毫秒
1.
视觉评价夜视彩色融合图像质量的实验研究 总被引:8,自引:3,他引:8
提出夜视彩色融合图像质量评价的三个基本指标是“目标探测性”、“细节”和“色彩”,并且通过视觉评价实验,研究了“感知质量”与这三个指标的相关性.对十个场景的微光与红外图像采用四种融合算法产生的40幅假彩色图像进行评价实验,实验结果得出:融合图像都有好目标探测性,感知质量与目标探测性的相关性很小;感知质量与细节的相关系数是0.89,感知质量与色彩的相关系数是0.75.说明在满足目标探测性要求条件下,细节是视觉感知融合图像质量的最主要评价指标,而且色彩成为夜视彩色图像质量的一个重要指标. 相似文献
2.
夜视融合图像质量客观评价方法 总被引:5,自引:1,他引:4
为建立通用、客观的融合图像质量评价方法,在分析图像质量评价与融合图像质量评价关系基础上,给出了图像质量评价与融合图像质量评价的一般表达式。依据信息理论和结构相似度评价方法,对建立的4种客观评价指标,采用4种融合方法获得的36幅融合图像进行了主观评价实验,统计分析结果显示,结合人类视觉系统的客观评价方法优于熵、交互信息量等评价指标,但仍未达到高度的主客观一致性,说明构建通用、高效、主客观一致性好的融合图像质量评价指标存在较大难度,同时对可能存在的原因进行了分析。 相似文献
3.
本文介绍了如何用主观评价的方法来评定有线电视图像质量,用于验收有线电视台站的网络工程。 相似文献
4.
5.
作为客观评价的研究基础,人眼主观评价是比较不同融合算法图像优劣的最直接有效的方法。通过开展主观评价实验,基于单因变量模型分析清晰度、颜色协调性等影响因素对彩色融合图像质量的影响程度,进而预测视觉任务下的融合图像总体质量,是目前流行的彩色融合图像质量主观评价研究方法。针对基于单因变量模型的研究方法易割裂“探测”与“感知”在探测识别过程中的联系的问题,本文以村庄环境下的探测识别视觉任务为例,选取“感知”和“探测”2个指标共同作为彩色融合图像质量的表现指标,组织15人对由8个场景、8种典型融合算法生成的42幅彩色融合图像的质量进行了主观评价。采用双因变量的结构方程模型(Structural Equation Model,SEM)分析了筛选后的评价结果,建立了彩色融合图像质量的预测模型并验证了模型的正确性。结果表明,当同时表现“感知”和“探测”2种性能时,村庄环境、探测识别视觉任务下,彩色融合图像的质量可由“目标背景差异”、“场景清晰度”和“颜色协调性”3个因素预测,且“感知”和“探测”2种性能是均衡的。 相似文献
6.
彩色夜视技术是当前夜视技术发展的前沿,但如何实现对彩色夜视图像质量的客观评价仍然是当前困扰人们的问题.针对北京理工大学高绍姝提出的颜色协调性模型主观评价实验人数不足的问题,按照国际视觉实验标准重新设计并进行了颜色协调性的主观视觉评价实验,主观评价测试的彩色融合图像分成绿色植物、海天和城镇建筑物三类典型场景,主观实验人数提高到52人;对主观评价实验结果的回归分析结果表明:高绍姝提出的颜色协调性评价模型在三类场景与主观评价结果均具有较好的一致性,明显优于其他评价模型,可以有效地对不同场景彩色融合图像的颜色协调性进行客观评价. 相似文献
7.
图像质量评价是双波段彩色融合处理算法及系统评价的基础,文中研究了一种可见光与红外彩色融合图像质量评价方法。提出了基于场景理解的图像感知质量PQSU 综合评价指标,选择三类典型场景彩色融合图像进行了主观视觉评价实验; 通过对已有评价指标与PQSU 综合指标的主观评价实验结果进行多元线性回归分析,建立了PQSU 的预测模型。结果表明:融合图像的场景颜色协调性与自然感高度相关;利用图像清晰度和颜色协调性可以有效地预测PQSU;针对不同场景类型,已有评价指标在PQSU 的预测模型中所占的权重有所不同,但预测模型的基本形式保持不变。文中提出的PQSU 及其预测模型为进一步发展融合图像质量客观评价模型奠定了基础。 相似文献
8.
9.
10.
11.
An new color image fusion method is presented based on dual-tree complex wavelet transform (DT-CWT) and Lαβ space for visual and infrared night image fusion. The color transfer technology is conducted to colorize the gray-scale visual image based on Lαβ space and the three component values of L, α and β can be gained. The appropriate dynamic range of gray image in Lα β space is proposed, and the reason of oversaturated colors is analyzed. The DT-CWT is applied in gray image fusion processing because of it's properties: shift invariance, directional selectivity, in order to obtaining exact position and clear image presentation. The different fusion rule is used aiming at high and low frequency components. The weighted average method is employed to low frequency part, and the high frequency parts are of selection greater local energy. The component L of colorized visual image is replaced by the gray-scale fused image. And the color fusion image is obtained by from Lα β to RGB(R: red, G: green, B:blue). The experiment results indicate that the proposed algorithm can achieve three requirements: detectability of the target, clear details and natural colors. 相似文献
12.
13.
针对基于全局统计信息颜色传递过程中存在的染色效果不能很好保持图像色彩的自然性,局部区域颜色与真实场景的颜色不符、目标变淡的问题,提出一种夜视图像局部颜色传递算法。首先,采用稀疏表示的方法对红外与微光图像融合;其次,对得到的融合图像进行非线性扩散,扩散结果采用核模糊均值聚类算法进行图像分割;然后,在YCbCr颜色空间对红外与微光图像块进行颜色传递;最后,把得到的彩色图像块组合成一幅图像,随后用得到的灰度融合图像来表征YCbCr空间的Y通道。实验结果表明,文中算法得到的彩色图像更加自然、真实。 相似文献
14.
颜色传递是获得夜视图像自然彩色的一种方法,以红外和微光图像为研究对象,提出了一种基于颜色传递和目标增强的夜视图像彩色融合方法。首先结合红外和微光图像各自的特点,采用TNO法生成伪彩色融合图像(目标图像),很好地保留了图像的细节信息,然后选取一幅相近的参考图像,把目标图像和参考图像转换到YCbCr颜色空间进行各个通道一阶(均值)和二阶(标准差)统计量匹配的颜色传递,同时在Cr通道引入一个对比度增强因子来增强图像中的兴趣目标。实验结果表明,文中方法不仅使得夜视图像获得了如白天参考图像般自然、真实的色彩,而且提高了图像的细节,目标也更加突出,更有利于观察者对场景的理解。 相似文献
15.
提出一种基于小波和色彩传递的夜视图像的彩色融合方法,使观察者更容易获取图像的场景信息。结合红外图像和微光图像各自的特点,利用NRL法把红外图像和微光图像映射到彩色空间形成假彩色图像(源图像),然后通过小波变换对源图像和参考图像进行多分辨率分解,计算不同分辨率下的均值和标准方差,将各分量根据参考图像和源图像的标准方差比进行缩放,把参考图像的色彩分布传递给源图像。实验结果表明,通过与传统方法的比较,本文算法不仅获得真实场景色彩,还可以提高图像的细节信息,改善场景感知。 相似文献
16.
Blind image quality assessment (BIQA) has always been a challenging problem due to the absence of reference images. In this paper, we propose a novel dual-branch vision transformer for BIQA, which simultaneously considers both local distortions and global semantic information. It first extracts dual-scale features from the backbone network, and then each scale feature is fed into one of the transformer encoder branches as a local feature embedding to consider the scale-variant local distortions. Each transformer branch obtains the context of global image distortion as well as the local distortion by adopting content-aware embedding. Finally, the outputs of the dual-branch vision transformer are combined by using multiple feed-forward blocks to predict the image quality scores effectively. Experimental results demonstrate that the proposed BIQA method outperforms the conventional methods on the six public BIQA datasets. 相似文献
17.
针对传统彩色图像融合存在色彩不自然和运算复杂的缺点,提出了基于小波和色彩传递夜视图像彩色融合算法。该算法的核心思想是把源图像RGB空间转换到YUV空间,然后利用小波变换把源图像和参考图像分别进行分解,并对结果中的一阶统计量和二阶统计量进行计算,最后把参考图像的统计量传递给源图像,此时参考图像和源图像的统计量是相同的,把经过处理过的源图像通过小波逆变换传递到RGB空间,测试结果表明,此算法具有图像细节更加丰富,边缘突出的优点。 相似文献
18.
19.