首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 843 毫秒
1.
[目的]针对图像在低光照下的亮度和对比度偏低的问题,提出一种基于视觉特性的非线性多尺度彩色图像增强算法.[方法]该算法将彩色图像从RGB色彩空间转化到HSI色彩空间,保持H分量不变,对S分量进行指数拉伸,对Ⅰ分量利用视觉系统模型和非线性映射方法实现图像对比度增强,再通过自适应的亮度调整增加图像的全局亮度.最后将HSI色彩空间转化到RGB色彩空间,从而实现对彩色图像自适应增强.[结果]通过对低光照彩色图像进行增强测试,其测试结果表明,[结论]该算法能够自适应地调整图像的全局亮度,增加图像的局部细节对比度,并保持其原色彩,提升彩色图像在低光照下的视见度.  相似文献   

2.
选择调整的亮度增强算法   总被引:1,自引:0,他引:1  
提出一种应用于平板显示的选择调整的亮度增强算法,可以在基本保留原图像暗部细节的同时,按照灰度级的原始值进行增强,从而在视频图像处理中达到较好的效果.在灰度模式下,该算法可以避免传统处理带来的对比度减小,从而保留更多的暗部细节.在RGB彩色模式下,该算法还可以避免传统亮度调整算法带来的灰度级不连续分布,使得调整后的RGB三个分量的直方图中灰度级连续分布,图像的色彩范围和色彩饱和度可以达到比以前更好的效果.  相似文献   

3.
图像和视频亮度的自动调整   总被引:2,自引:0,他引:2       下载免费PDF全文
 对曝光不足的图像和视频进行亮度调整具有重要的理论研究意义和实际应用价值,本文提出一种基于梯度域操作的图像和视频亮度自动调整算法.对于静态图像,算法首先将图像分割为不同的亮度区域;然后分别计算各区域的亮度调整算子;最后通过求解一个梯度约束方程得到结果图像.我们进而将该算法延伸到视频,首先选取若干关键帧并使用上述图像亮度调整算法进行处理;然后对非关键帧进行分割并通过光流算法确定非关键帧上的分割区域与前后关键帧区域的对应关系;最后利用对应关系通过关键帧区域的亮度调整算子以及调整后的亮度指导非关键帧上各区域的亮度调整,并生成结果视频序列.本文算法可以有效处理空间和时间上曝光不足和不均的图像和视频,并能够较好地保持图像、视频的细节纹理信息,实验结果表明了算法的有效性.  相似文献   

4.
针对图像在传输过程中易引入噪声、色彩质量下降、中值滤波导致图像细节丢失和均值滤波出现模糊等问题,提出了一种可以应用于CMOS图像传感器的图像画质增强和滤波算法.该算法对插值后的Bayer图像数据进行一维空间的增强和降噪处理,首先将图像从RGB空间转换到YUV空间,在Y通道上用改进的直方图均衡化方法实现图像明暗程度的对比度增强调节,对U、V通道采用分段式线性调节方法实现饱和度调节;然后对Y通道进行自适应降噪,对U、V通道进行加权中值滤波降噪,以满足后续处理对图像质量的要求;最后在Y通道上,采用基于Laplace算子的锐化掩模进行锐化处理,保证图像的细节清晰可见.实验结果表明:从图像视觉效果来看,相比单独使用中值和均值滤波,所提出的自适应滤波得到的效果更好,图像细节保存较好、模糊程度低、图像更为清晰,且色彩质量更高.通过对比峰值信噪比(PSNR),对混合噪声进行处理时,该滤波算法的PSNR优于中值和均值滤波,有效地抑制了噪声.整个算法在一维邻域空间进行,更容易在有限的硬件上实现较好的图像处理结果,满足小面积低功耗的要求.  相似文献   

5.
孙茜雅 《电子科技》2014,27(3):4-6,11
数字图像拼接是指将具有重叠区的多幅数字图像或多帧视频,通过配准和融合获得单幅宽视场图像或者动态全景图。在实际应用中,图像因色彩不一致,而利于图像的配准和融合,因此有必要研究图像色彩的校正。文中首先论述了彩色图像的色彩空间以及它们之间的转换关系,然后介绍了常用的色彩校正方法,最后提出了基于Gamma和Linear调整的色彩校正算法。该算法将图像转换到YCbCr色彩空间,对亮度分量进行Gamma校正,对色度分量进行线性校正,实验结果表明,与以往的校正算法相比,校正效果有一定的改善。  相似文献   

6.
针对地下空间低照度图像色彩偏暗、亮度低且分布不均、增强后图像色偏和噪声高等问题,研究提出了融合非物理模型的改进AM-RetinexNet图像增强算法。该算法将RGB图像转换成HSV分量,利用HSV空间相互独立性实现图像亮度增强和色彩增强处理,其中S分量利用V分量提取的相关信息进行自适应调整,V分量采用融合直方均衡化与注意力机制优化的RetinexNet进行照度分量增强处理;将处理后HSV分量转化成RGB图像,并对图像进行自适应色彩恢复,得到照度增强图像。对比实验表明,在图像的细节处理、亮度整体增强处理、图像降噪和色彩视觉修正等方面该方法表现较好,测试指标中平均互信息(MI)、标准差(STD)、结构相似性(SSIM)、平均梯度(AG)、空间频率(SF)和峰值信噪比(PSNR)最佳,均值分别可达到6.18,70.62,0.56,13.29,36.53,39.22。  相似文献   

7.
该文提出了一种自适应图像去雾算法,充分考虑不同复杂场景下的图像特征,建立了算法的自适应机制.该机制包含对图像是否有雾、是否为天空区域、滤波器尺寸等的自适应调整,解决了传统图像去雾算法在深度断层处可能产生的光晕效应等问题.该文同时对上述自适应图像去雾算法进行FPGA加速实现,实验结果表明,该文算法在XC7K325T型号FPGA视频处理平台上可以满足对1080P@60Hz视频去雾的实时性要求.对于大多数轻雾或浓雾场景,该文算法去雾后图像色彩自然无过饱和,全局对比度和饱和度提升比率均值为0.309和0.994,相比于本领域其他去雾算法优势明显.  相似文献   

8.
本文介绍了一种通用的画质处理算法FPGA硬件验证平台.该FPGA硬件验证平台是为验证画质处理算法而设计的,具有视频功能全面、逻辑容量大、时钟资源丰富、支持显示屏接口种类多和机械结构可靠的优点,是进行视频画质处理算法验证比较理想的FPGA验证平台.  相似文献   

9.
在有雾气的环境下,户外采集到的图像容易出现对比度低、细节丢失等问题.针对该问题,提出了多尺度Retinex(MSR)理论结合小波变换的图像融合算法对雾天图像进行恢复.首先,用MSR算法对采集到的雾天图像进行增强处理,之后采用'db5'小波基对雾天图像与增强图像的亮度分量V进行融合处理,并对雾天图像的饱和分量进行约束,最后合成去雾图像.设置阈值,用小波变换对雾浓度相对较大的雾天图像进行二次迭代融合去除残雾.实验结果表明,所提算法可有效恢复不同浓度的雾天图像,去雾后的图像可增强暗区细节、增强图像色彩、丰富图像信息.小波融合的使用保留了更多图像信息,使图像色彩丰富自然、整体平滑,融合图像具有良好的复原效果.  相似文献   

10.
由于水体环境中光的吸收与散射,导致采集的水下图像存在颜色失真、亮度不均、对比度低等缺点。针对以上缺点,提出了基于亮度校正与多空间转换的水下图像增强方法。首先采用色彩平衡算法对退化图像进行颜色校正;然后将色彩校正的图像从红-绿-蓝(red-green-blue,RGB)空间转换为色调-饱和度-亮度(hue-saturation-value,HSV)空间,用构造出新的二维伽马函数处理V通道,再转回RGB空间;最后对颜色校正图像和亮度校正图像进行加权融合,并将融合图像从RGB空间转换为LAB空间,用限制对比度自适应直方图均衡化算法处理L通道,再转回RGB空间,便得到最终的增强图像。为验证本文算法的有效性,采用主观视觉效果和3种客观指标进行验证。结果表明,本文算法能够有效地校正图像亮度,提高图像清晰度。  相似文献   

11.
为了解决低照度图像在图像增强过程中图像质量不佳、对比度不高等问题,本文提出改进Retinex与多图像融合算法用于低照度图像增强。首先将待处理图像转换到HSV色彩空间,并设定阈值对其V通道分量进行亮度调节,然后转换到RGB色彩空间,将其拷贝3份,对第一份进行直方图均衡化,中值滤波处理;对第2份进行自动亮度调节,双边滤波处理;对第3份进行改进的Retinex算法处理,采用高斯滤波、双边滤波作为其环绕函数,估计图像照明分量,最后输出反射图。将处理后的3份图像转到HSV色彩空间,对其V分量进行多图像融合,H、S分量沿用第2份图像分量值,最后将融合后的图像由HSV转为RGB色彩空间,输出处理后的图像。实验结果表明,本文提出的算法在增强低照度图像的同时,还可抑制图像噪声,同时具有良好的保边性,且细节明显。  相似文献   

12.
基于视觉特性的多尺度彩色图像增强算法   总被引:3,自引:0,他引:3  
本文根据人眼对亮度和颜色不同的敏感特性,按照视觉心理特性选择了适当的色度空间,在此空间中提出了一种基于小波变换的彩色图像增强算法。和目前存在的灰度图像增强算法不同,不仅对亮度分量做出了动态范围调节,同时对图像的颜色分量也进行处理。实验证明,增强后的彩色图像不仅更加清晰,更加生动,鲜艳,达到了预期的目标。  相似文献   

13.
研究了基于Retinex理论的图像增强算法,介绍了图像和视频处理中常用的RGB、HSV、YIQ、YCbCr和 Lab 5种颜色空间,给出了均方误差(MSE)、峰值信噪比(PSNR)、信息熵、彩色增强因子(CEF)和结构相似度(SSIM)5个图像质量评价指标的计算公式,并用这5个指标评价了CLAHE算法在5种颜色空间上的增强效果.实验结果表明,相比于其它4种颜色空间,多尺度Retinex算法在HSV颜色空间上取得了最好的增强效果.  相似文献   

14.
In this paper, a new and efficient edge-preserving algorithm is presented for color contrast enhancement in CIE Luv color space. The proposed algorithm not only can enhance the color contrast as the previous algorithm does, but also has an edge-preservation effect. In addition, the spurious edge points occurred due to the color contrast enhancement can be well reduced using the proposed algorithm. This is the first edge-preserving algorithm for color contrast enhancement in color space. Furthermore, a novel color image segmentation algorithm is presented to justify the edge-preservation benefit of the proposed color contrast enhancement algorithm. Based on some real images, experimental results demonstrate the advantages of color contrast enhancement, edge-preservation effect, and segmentation result in our proposed algorithm.  相似文献   

15.
在低照度环境下,摄像机捕捉到的夜间视频质量较差,常出现光照不足、对比度低、模糊不清和颜色偏移等问题,影响了视频的判读和理解。针对夜间视频存在的问题,提出不同时段空间背景融合技术和根据Retinex理论利用三边滤波器提取亮度图像的照度分量并结合Sigmiod 非线性拉伸函数对反射分量进行增强处理以突出细节达到图像增强的目的。经实验证明,提出的算法能够提高低照度夜间视频的整体视觉效果,图像的亮度、对比度、清晰度得到改善,突出了视频图像细节,保留了视频重要内容,增强结果自然清晰,避免了图像失真等问题,解决了夜间视频增强中常出现的光晕、鬼影、颜色偏移等问题,便于视频的判读与分析。  相似文献   

16.
In order to enhance the contrast of low-light images and reduce noise in them, we propose an image enhancement method based on Retinex theory and dual-tree complex wavelet transform (DT-CWT). The method first converts an image from the RGB color space to the HSV color space and decomposes the V-channel by dual-tree complex wavelet transform. Next, an improved local adaptive tone mapping method is applied to process the low frequency components of the image, and a soft threshold denoising algorithm is used to denoise the high frequency components of the image. Then, the V-channel is rebuilt and the contrast is adjusted using white balance method. Finally, the processed image is converted back into the RGB color space as the enhanced result. Experimental results show that the proposed method can effectively improve the performance in terms of contrast enhancement, noise reduction and color reproduction.  相似文献   

17.
We present in this paper a post-processor for the reduction of color bleeding in 4:1:1 digital video decompressed sequences. It is an extension to the specific case of 4:1:1 video format of our previous work on color image enhancement. The proposed algorithm is nonlinear and adaptive depending on the local characteristics of the video material. First, the different parts of the algorithm are described in detail: this include the detection, then the removal of color bleeding in coded video. Finally experimental results are shown, that exhibit the improvement of color fidelity of the post-processed images.  相似文献   

18.
Most deep learning-based image enhancement algorithms have been developed based on the image-to-image translation approach, in which enhancement processes are difficult to interpret. In this paper, we propose a novel interpretable image enhancement algorithm that estimates multiple transformation functions to describe complex color mapping. First, we develop a histogram-based multiple transformation function estimation network (HMTF-Net) to estimate multiple transformation functions by exploiting both the spatial and statistical information of the input images. Second, we estimate pixel-wise weight maps, which indicate the contribution of each transformation function at each pixel, based on the local structures of the input image and the transformed images obtained by each transformation function. Finally, we obtain the enhanced image as the weighted sum of the transformed images using the estimated weight maps. Extensive experiments confirm the effectiveness of the proposed approach and demonstrate that the proposed algorithm outperforms state-of-the-art image enhancement algorithms for different image enhancement tasks.  相似文献   

19.
A feature fusion approach is presented to extract the region of interest (ROI) from the stereoscopic video. [0]Based on human vision system (HVS), the depth feature, the color feature and the motion feature are chosen as vision features. [0]The algorithm is shown as follows. Firstly, color saliency is calculated on superpixel scale. Color space distribution of the superpixel and the color difference between the superpixel and background pixel are used to describe color saliency and color salient region is detected. Then, the classic visual background extractor (Vibe) algorithm is improved from the update interval and update region of background model. The update interval is adjusted according to the image content. The update region is determined through non-obvious movement region and background point detection. So the motion region of stereoscopic video is extracted using improved Vibe algorithm. The depth salient region is detected by selecting the region with the highest gray value. Finally, three regions are fused into final ROI. Experiment results show that the proposed method can extract ROI from stereoscopic video effectively. In order to further verify the proposed method, stereoscopic video coding application is also carried out on the joint model (JM) encoder with different bit allocation in ROI and the background region.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号