首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 281 毫秒
1.
针对沙尘天气下图像色彩偏移严重及对比度低等问题,提出一种基于直方图均衡化与带色彩恢复的多尺度视网膜(MSRCR)增强的沙尘降质图像增强算法。通过偏色校正和图像增强两个步骤进行图像恢复,将RGB图像各通道预处理后利用限制对比度自适应直方图均衡方法得到校正后的图像,对图像采用双边滤波进行降噪处理,通过MSRCR算法进一步解决色彩失衡问题。由于处理后的图像对比度较低,存在一定色偏,利用伽马校正和基于图像分析的偏色检测及颜色校正方法进行处理得到最终结果。对大量沙尘降质图像进行仿真实验,结果表明,该算法能够有效处理不同偏色程度的沙尘图像,不仅提高了图像的对比度,而且有效避免了图像颜色偏移现象,相比GCANet、MSRCR等算法,平均时间效率提升了46.2%~94.7%。  相似文献   

2.
为了解决沙尘暴环境下拍摄的图像中存在的颜色偏移、对比度低等降质问题,提出基于偏色校正和信息损失约束的沙尘降质图像增强算法,主要包含偏色校正和对比度增强2个模块,在偏色校正模块中,通过分析沙尘降质图像的RGB 3个通道直方图分布特点,提出一个改进的基于高斯模型的偏色校正算法;在对比度增强模块中,通过结合基于暗通道先验和信息损失约束算法,提出一种基于大气散射模型的对比度增强算法.为了验证算法的有效性,通过与4种已有算法的大量实验结果对比发现:文中算法不但能够很好地增强不同种类的沙尘降质图像的对比度,而且可以有效地避免图像偏色现象,并且保持良好的色彩保真度和合适的亮度.  相似文献   

3.
目的 沙尘环境中获取的图像存在颜色失真、对比度低等问题,不利于人眼辨识以及进一步的图像处理。为解决沙尘降质图像的这些问题,提出一种新的基于颜色调整和对比度增强的沙尘降质图像的增强算法。方法 沙尘降质图像增强要解决两个问题,即颜色偏移和对比度增强。基于沙尘降质图像的的颜色直方图存在的集中性、顺序性以及偏离性等特性,使用高斯模型分别对各通道颜色进行建模,进而进行颜色调整。针对颜色调整后的图像存在的整体灰暗,对比度低以及噪声等特点,利用改进的基于奇异值分解的增强算法,从而有效地增加图像对比度并抑制噪声。结果 为了验证本文算法的有效性,与带有色彩恢复的多尺度Retinex算法、GUM算法、Tarel算法、融合算法4种方法进行了对比。从增强结果可以看出,本文算法能够有效解决降质图像的颜色偏移和对比度低的问题,并增强图像的整体视觉效果。结论 本文算法充分利用沙尘降质图像三通道颜色直方图分布的特点,能够快速高效地实现颜色校正,并通过图像频域的奇异值信息进一步提升图像的对比度。经过多幅沙尘降质图像清晰化实验验证,表明本文方法能够实现对不同程度沙尘降质图像的增强,具有较强的适用性。  相似文献   

4.
针对水下退化图像细节模糊、对比度低和蓝绿色偏问题,提出了一种基于多尺度特征融合生成对抗网络的水下图像增强算法。算法以生成对抗网络为基本框架,结合传统白平衡算法和多尺度增强网络实现对水下退化图像的增强。通过改进的通道补偿白平衡算法矫正蓝绿色偏,并以卷积神经网络提取偏色校正后图像的特征;提取图像多尺度特征,结合提出的残差密集块将每一层的局部特征增强为捕获语义信息的全局特征,并与偏色校正图像的特征相融合;通过重建模块将融合特征重建为清晰图像,恢复图像的细节信息。实验结果表明,该算法增强的水下图像去雾效果较好且颜色更真实,有效改善了水下图像色偏和模糊的问题,在主观指标和客观指标上的实验结果均优于对比算法。  相似文献   

5.
由于光在水下传播时会出现吸收和散射的情况,水下图像往往存在色偏、对比度低、模糊、光照不均匀等问题。根据水下图像成像模型,人们在海底拍摄所获得的图像往往是退化的图像,而退化的图像不能完整地表达海洋场景信息,难以满足实际的应用需要。为此,文中提出了一种基于颜色校正和去模糊的水下图像增强方法。该方法有效融合了颜色校正和去模糊两个阶段,取得了递增的增强效果。在颜色校正阶段,首先对原始图像进行对比度拉伸,在对比度拉伸完成之后,图像可能存在拉伸过度或拉伸不足的现象。因此,所提方法根据灰度世界先验,在对比度拉伸后进一步使用伽马校正来优化和调整图像的对比度和色彩,使图像的R,G,B三通道的灰度值之和趋于相等。接着,在去模糊阶段,通过融合暗通道先验对颜色校正后的图像进行去模糊,得到最终的增强图像。实验结果表明,所提方法具有良好的整体恢复效果,能有效地恢复图像信息,在主观评价和客观评价上均展现出较好的效果。另外,所提方法可以作为水下图像分类等计算机视觉任务的预处理步骤,在实验中能够将水下图像集的分类精度提升16%左右。  相似文献   

6.
水下机器人可用于水产养殖动态监测和水下拍摄,然而摄像机在水下抓拍的海洋图像呈现蓝绿色调、对比度低、细节模糊、亮度暗等问题,严重影响水下目标识别与检测的准确率。为此,本文提出了一种基于图像融合的低照度水下图像增强方法。首先,利用灰度世界算法对图像颜色进行校正,有效去除水下图像的蓝(绿)色基调;然后,对颜色校正后的图像分别进行锐化处理和HSV颜色空间下的亮度增强,分别得到细节增强图像和亮度增强图像;最后,将细节增强图像和亮度增强图像进行多尺度融合,得到最后的增强图像。实验结果表明,该算法不仅有效地解决了水下图像呈现蓝绿色的问题,而且增强了图像的整体亮度,使得细节更加清晰,提高了水下机器人的视觉感知能力。  相似文献   

7.
针对水下图像对比度低及细节模糊的问题,提出一种基于图像融合的自适应水下图像增强方法,实现不同类型水下图像的增强效果。基于颜色校正方法对水下图像进行颜色均衡化预处理;对亮度分量L进行Gamma校正,获得对比度提升的亮度图像;对两个亮度分量进行三层小波分解,提出对分解所得的低频分量及高频分量分别采用线性融合和自适应融合策略进行融合。多尺度融合保证了增强图像细节的丰富性,自适应融合策略体现了融合过程的可控性。实验结果表明,增强的水下图像呈现出高对比度和清晰的细节。  相似文献   

8.
针对传统去雾方法存在的恢复质量差和耗时较长等问题,提出一种基于亮度对比度增强与饱和度补偿的快速图像去雾算法.首先提出一种基于颜色畸变因子的偏色检测方法,并通过基于完美反射的白平衡方法对存在偏色的图像进行色彩校正;然后在Lab色彩空间的亮度通道内,结合基于天空检测的大气光值估计方法和基于暗通道先验的透射率估计方法,提出基于大气散射模型的亮度通道对比度增强方法;最后为了改善图像画面的苍白感,在HSV色彩空间的饱和度通道内提出基于大气散射模型的饱和度补偿方法,对初步去雾结果进行饱和度补偿,获得色彩鲜艳的无雾图像.与有代表性的去雾方法进行实验的结果表明,该算法可以有效地提高去雾速度,并在避免颜色畸变的同时获得高对比度和高饱和度的清晰复原结果.  相似文献   

9.
低照度图像存在亮度低、噪声伪影、细节丢失、颜色失真等退化问题,使得低照度图像增强成为一个多目标增强任务。现有多数增强算法不能很好地在多个增强目标上取得综合的性能,对此,提出PNet——融合注意力机制的多级低照度图像增强网络模型,通过构建多级串联增强任务子网,结合注意力机制设计多通道信息融合模块进行有效特征筛选及记忆,网络以序列方式处理图像流,协同渐进式完成图像全局自适应亮度提升、噪声伪影抑制、细节恢复、颜色矫正等多任务。此外,通过与现有主流算法进行定量及定性分析对比,结果显示该方法能实现自适应图像亮度增强、细节对比度提升,增强后图像整体亮度自然,没有明显光晕及伪影且色彩较丰富真实,在PSNR、SSIM、RMSE指标中较次优算法分别提升0.229、0.112、0.335。实验结果表明,该方法在低照度图像增强的多目标任务上取得了综合较优秀的表现,具有一定的应用价值。  相似文献   

10.
有色雾、烟、尘等恶劣大气条件下的低质图像具有低可见度和颜色偏移的特点,给人类观察和计算机视觉应用带来困难。当前针对此类图像的增强算法通常忽略了景物与相机的距离对色偏的影响,为了在增强可见度时更好地恢复图像颜色,本文提出低质图像成像可见度下降及色偏与景物距离的关系模型和求解方法。该方法首先通过图像的局部亮度估算距离,然后通过距离估算图像的色偏矩阵,再求解退化模型得到可见度与颜色得到恢复的图像,最后将恢复的图像与限制对比度自适应直方图均衡(Contrast limited adaptive histogram equalization,CLAHE)增强图像进行距离加权融合,得到进一步细节增强的图像。实验表明,本文提出的方法与同类方法相比,在达到高图像质量评价指标的同时,明显具有更好的颜色恢复结果。  相似文献   

11.
目的 低光照图像增强是图像处理中的基本任务之一。虽然已经提出了各种方法,但它们往往无法在视觉上产生吸引人的结果,这些图像存在细节不清晰、对比度不高和色彩失真等问题,同时也对后续目标检测、语义分割等任务有不利影响。针对上述问题,提出一种语义分割和HSV(hue,saturation and value)色彩空间引导的低光照图像增强方法。方法 首先提出一个迭代图像增强网络,逐步学习低光照图像与增强图像之间像素级的最佳映射,同时为了在增强过程中保留语义信息,引入一个无监督的语义分割网络并计算语义损失,该网络不需要昂贵的分割注释。为了进一步解决色彩失真问题,在训练时利用HSV色彩空间设计HSV损失;为了解决低光照图像增强中出现细节不清晰的问题,设计了空间一致性损失,使增强图像与对应的低光照图像尽可能细节一致。最终,本文的总损失函数由5个损失函数组成。结果 将本文方法与LIME(low-light image enhancement)、RetinexNet(deep retinex decomposition)、EnlightenGAN(deep light enhancement using generative adversarial networks)、Zero-DCE(zero-reference deep curve estimation)和SGZ(semantic-guided zero-shot learning)5种方法进行了比较。在峰值信噪比(peak signal-to noise ratio,PSNR)上,本文方法平均比Zero-DCE(zero-reference deep curve estimation)提高了0.32dB;在自然图像质量评价(natural image quality evaluation,NIQE)方面,本文方法比EnlightenGAN提高了6%。从主观上看,本文方法具有更好的视觉效果。结论 本文所提出的低光照图像增强方法能有效解决细节不清晰、色彩失真等问题,具有一定的应用价值。  相似文献   

12.
目的 图像去雾是计算机视觉的重要研究方向,既获得高质量的去雾图像,又保证较低的时间复杂度一直是图像去雾面临的挑战,为此提出了一种基于雾天图像降质模型的优化去雾方法。方法 根据雾天图像降质模型,暗原色作为先验知识,对模型的两个物理量大气光值和透射率进行优化。传统优化算法中通常都是固定其一,优化另一个物理量,与传统方法不同,考虑到大气光和透射率的相关性,采用多元优化策略,将这两个物理量作为互相影响的整体,利用迭代算法进行优化。为保持去雾图像颜色真实、自然,基于对无雾图像的统计特性,多阈值融合的约束条件作为迭代停止的条件,控制优化去雾程度,复原高质量去雾图像。结果 本文方法与其他去雾方法相比,在视觉效果上,图像结构更加清晰,细节更加丰富,色彩更加真实。在客观数据方面,本文方法获得图像的彩色直方图与有雾图像的彩色直方图在形状上更相似,同时在Cones、Herzeliya、House、Dolls对比图像中,本文方法结果图像的信息熵值都比较高,分别为13.801 270、15.490 912、15.395 014、16.276 838,且时间复杂度较He方法(使用软抠图算法优化透射率)降低了3~5倍。结论 本文去雾方法利用迭代算法对大气光和透射率进行多元优化,同时采用多阈值融合约束条件控制优化去雾程度。本文方法在色彩保真度、细节恢复等方面都优于经典算法,同时获得了较好的客观评价数据。实验结果表明,本文方法能够达到主客观都满意的效果。  相似文献   

13.
目的 色彩纠正和图像融合是生成高质量全景场景图像的关键技术。色彩纠正中参考图像的选择以及图像融合算法,决定着所生成全景图像的质量和速度。现有方法在确定一幅图像是否适合作为参考图像时,需要遍历所有其他图像,计算其作为参考图像进行色彩纠正的效果,复杂度高,速度慢;在图像融合时存在融合质量与融合速度之间的矛盾。因此,如何快速生成高质量的全景图像就成为全景场景再现的主要诉求。为此本文提出优化的参考图像自动选择的色彩纠正方法和基于重叠区域划分的分区融合方法。方法 针对参考图像选择算法复杂度高的问题,根据图像质量与稳定性通常呈反比关系的事实,采用贪婪策略,选择质量最差的图像在色彩纠正前后的相似度,作为是否选择当前图像作为参考图像的评价指标,在保证参考图像满足色彩纠正需求的前提下,大幅降低计算复杂度。针对融合质量与融合速度之间的矛盾,提出分区融合:将重叠区域划分为接缝区域和非接缝区域,利用泊松融合的接缝不可见性和线性融合实现速度快的特性分别对接缝区域和非接缝区域进行融合,既保证融合的质量,又加快融合速度。在此基础上,加入简单点光源,解决上述过程产生的光线一致性问题,进一步提高图像质量。结果 采用主观和客观相结合的方法对结果进行评估。主观方面,本文算法生成的全景图像色彩基本实现平滑过渡且图像原始信息保留完整。客观方面,色彩纠正前后图像的结构相似度(SSIM)控制在0.850.99之间,时间复杂度由原来的O(n2)降低到O(n);分区融合后图像信息熵接近于泊松融合,但时间消耗降低72%。采用基于PC端的问卷调查法和OG-IQA算法将本文算法与PTGui、OpenCV、Xiong方法生成的全景图质量进行对比,在大多数情况下本文算法均优于上述算法。结论 实验表明,本文算法适用于多种场景,在保证目视效果良好的前提下,时间消耗降低,可广泛应用于医学、数字旅游、遥感等领域。  相似文献   

14.
目的 室外监控在雾霾天气所采集图像的成像清晰度和目标显著程度均会降低,当在雾霾图像提取与人眼视觉质量相关的自然场景统计特征和与目标检测精度相关的目标类别语义特征时,这些特征与从清晰图像提取的特征存在明显差别。为了提升图像质量并且在缺乏雾霾天气目标检测标注数据的情况下提升跨域目标检测效果,本文综合利用传统方法和深度学习方法,提出了一种无监督先验混合图像特征级增强网络。方法 利用本文提出的传统先验构成雾气先验模块;其后连接一个特征级增强网络模块,将去散射图像视为输入图像,利用像素域和特征域的损失实现场景统计特征和目标类别语义相关表观特征的增强。该混合网络突破了传统像素级增强方法难以表征抽象特征的制约,同时克服了对抗迁移网络难以准确衡量无重合图像域在特征空间分布差异的弱点,也减弱了识别算法对于低能见度天候采集图像标注数据的依赖,可以同时提高雾霾图像整体视觉感知质量以及局部目标可识别表现。结果 实验在两个真实雾霾图像数据集、真实图像任务驱动的测试数据集(real-world taskdriven testing set, RTTS)和自动驾驶雾天数据集(foggy driving dense)...  相似文献   

15.
目的 现有的低照度图像增强算法常存在局部区域欠增强、过增强及色彩偏差等情况,且对于极低照度图像增强,伴随着噪声放大及细节信息丢失等问题。对此,提出了一种基于照度与场景纹理注意力图的低光图像增强算法。方法 首先,为了降低色彩偏差对注意力图估计模块的影响,对低光照图像进行了色彩均衡处理;其次,试图利用低照度图像最小通道约束图对正常曝光图像的照度和纹理进行注意力图估计,为后续增强模块提供信息引导;然后,设计全局与局部相结合的增强模块,用获取的照度和场景纹理注意力估计图引导图像亮度提升和噪声抑制,并将得到的全局增强结果划分成图像块进行局部优化,提升增强性能,有效避免了局部欠增强和过增强的问题。结果 将本文算法与2种传统方法和4种深度学习算法比较,主观视觉和客观指标均表明本文增强结果在亮度、对比度以及噪声抑制等方面取得了优异的性能。在VV(Vasileios Vonikakis)数据集上,本文方法的BTMQI(blind tone-mapped quality index)和NIQMC(no-reference image quality metric for contrast distortion)指标均达到最优值;在178幅普通低照度图像上本文算法的BTMQI和NIQMC均取得次优值,但纹理突出和噪声抑制优势显著。结论 大量定性及定量的实验结果表明,本文方法能有效提升图像亮度和对比度,且在突出暗区纹理时,能有效抑制噪声。本文方法用于极低照度图像时,在色彩还原、细节纹理恢复和噪声抑制方面均具有明显优势。代码已共享在Github上:https://github.com/shuanglidu/LLIE_CEIST.git。  相似文献   

16.
目的 现有大多数低照度图像增强算法会放大噪声,且用于极低照度图像时会出现亮度提升不足、色彩失真等问题。为此,提出一种基于Retinex(retina cortex)的增强与去噪方法。方法 为了增强极低照度图像,首先利用暗通道先验原理估计场景的全局光照,若光照低于0.5,对图像进行初始光照校正;其次,提出一种Retinex顺序分解模型,使低照度图像中的噪声均体现在反射分量中,基于分解结果,利用Gamma校正求取增强后的噪声图像;最后,提出一种基于内外双重互补先验约束的去噪机制,利用非局部自相似性原理为反射分量构建内部先验约束,基于深度学习,为增强后的噪声图像构建外部先验约束,使内外约束相互制约。结果 将本文算法与6种算法比较,在140幅普通低照度图像和162幅极低照度图像上(有正常曝光参考图像)进行主观视觉和客观指标评价比较,结果显示本文方法在亮度提升、色彩保真及去噪方面均有明显优势,对于普通低照度图像,BTMQI(blind tone-mapped quality index)和NIQE(natural image quality evaluator)指标均取得次优值,对于极低照度图像...  相似文献   

17.
18.
The demand for the exploration of ocean resources is increasing exponentially. Underwater image data plays a significant role in many research areas. Despite this, the visual quality of underwater images is degraded because of two main factors namely, backscattering and attenuation. Therefore, visual enhancement has become an essential process to recover the required data from the images. Many algorithms had been proposed in a decade for improving the quality of images. This paper aims to propose a single image enhancement technique without the use of any external datasets. For that, the degraded images are subjected to two main processes namely, color correction and image fusion. Initially, veiling light and transmission light is estimated to find the color required for correction. Veiling light refers to unwanted light, whereas transmission light refers to the required light for color correction. These estimated outputs are applied in the scene recovery equation. The image obtained from color correction is subjected to a fusion process where the image is categorized into two versions and applied to white balance and contrast enhancement techniques. The resultants are divided into three weight maps namely, luminance, saliency, chromaticity and fused using the Laplacian pyramid. The results obtained are graphically compared with their input data using RGB Histogram plot. Finally, image quality is measured and tabulated using underwater image quality measures.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号