首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
针对无线传输背景下低比特率图像压缩存在的模糊和振铃问题,提出一种基于小波域降采样和插值的高效图像压缩算法.在编码端,对图像进行小波变换,根据各高频子带特点对其进行自适应降采样处理,并采用基于小波树的小波差分缩减编码算法进行编码.在解码端,采用基于边缘方向的插值方法将解码的高频子带进行放大,对解码重建的图像采用基于强边缘的自适应滤波算法以消除振铃效应.实验结果表明,与基于空域降采样的图像压缩算法相比,该算法具有较高的图像解码质量,可有效抑制低比特率下重建图像的模糊和振铃问题.  相似文献   

2.
对于目前图像超分辨率重建算法中的问题,忽略重建图像结构性和重建过程中丢失高频信息,提出了一种基于多字典的单幅图像超分辨率重建算法。在字典学习阶段根据每个图像块的主方向角,对所有训练图像块进行聚类并训练各类的字典。利用训练得到的字典重建训练样本并计算各类的残差图像块,然后对残差图像块再进行聚类、训练残差字典。用锚定邻域回归方法重建高分辨率图像,实验结果表明,该算法在客观评价和视觉效果上均优于许多优秀的图像超分辨算法。  相似文献   

3.
图像超分辨率重建技术可以提高图像的分辨率,在医学、军事等领域都发挥着重要作用.传统的SRGAN图像超分辨率重建算法训练收敛速度慢,高频纹理锐化过度导致部分细节扭曲,影响重建图像质量.针对以上问题,对传统SRGAN模型的生成网络和损失函数进行改进,用于图像超分辨率重建.采用稀疏残差密集网络(SRDN)代替传统的SRRes...  相似文献   

4.
成云凤  汪伟 《控制工程》2023,(5):830-840
随着医疗设备的不断改进,医学图像质量得到了大幅度提升。但是,受图像采集时间和人体承受放射剂量的限制,医学图像分辨率仍需进一步改进。在图像稀疏表示的相关理论中,双字典将图像高频细节信息看作是主要高频和残留高频的组合。基于此,提出一种基于双字典的医学图像超分辨率重建算法。首先,采用非下采样Contourlet变换提取图像特征;然后,这些特征被用于训练主字典和残差字典;最后,利用两种字典恢复出图像的主高频和残留高频,并将两种高频信息叠加到低分辨率图像上,实现重建高分辨率医学图像。实验结果表明,所提算法能有效提高重建图像质量,其性能优于其他几种算法。  相似文献   

5.
图像压缩标准JPEG综合运用了多种变换和编码技术 ,具有很高的压缩比 ,编码及解码的算法复杂度适当 ,可以在短时间内压缩或重建图像。在JPEG算法的基础上 ,首次提出了一种针对稳定背景的图像压缩 ,对算法中的霍夫曼编码部分进行了优化 ,在不降低图像质量和不增加运算量的条件下 ,将压缩比提高 1 0 %~ 2 0 %。  相似文献   

6.
近年来,生成对抗网络在约束图像生成方面表现出了较好的潜力,使其适用于图像超分辨率重建。针对基于卷积神经网络的图像超分辨率重建算法存在的特征信息利用率低的问题,基于生成对抗网络框架,提出了残差密集生成对抗网络的超分辨率重建算法。该算法定义生成器网络、判别器网络,通过构建残差密集网络作为生成器网络及PatchGAN作为判别器网络,以解决基于卷积神经网络的超分辨率算法中特征信息利用率低以及生成对抗网络收敛慢的问题。该重建算法在Set5等标准数据集上与主流的超分辨率重建算法进行对比,实验表明,该算法能够有效地提高特征信息利用率,较好地恢复低分辨率图像的细节信息,提高图像重建的质量。  相似文献   

7.
基于预测稀疏编码的快速单幅图像超分辨率重建   总被引:1,自引:0,他引:1  
沈辉  袁晓彤  刘青山 《计算机应用》2015,35(6):1749-1752
针对经典的基于稀疏编码的图像超分辨率算法在重建过程中运算量大、计算效率低的缺点,提出一种基于预测稀疏编码的单幅图像超分辨率重建算法。训练阶段,该算法在传统的稀疏编码误差函数基础上叠加编码预测误差项构造目标函数,并采用交替优化过程最小化该目标函数;测试阶段,仅需将输入的低分辨图像块和预先训练得到的低分辨率字典相乘就能预测出重建系数,从而避免了求解稀疏回归问题。实验结果表明,与经典的基于稀疏编码的单幅图像超分辨率算法相比,该算法能够在显著减少重建阶段运算时间的同时几乎完全保留超分辨率视觉效果。  相似文献   

8.
林静  黄玉清  李磊民 《计算机应用》2020,40(8):2345-2350
由于网络训练不稳定,基于生成对抗网络(GAN)的图像超分辨率重建存在模式崩溃的现象。针对此问题,提出了一种基于球形几何矩匹配与特征判别的球面双判别器超分辨率重建网络SDSRGAN,通过引入几何矩匹配与高频特征判别来改善网络训练的稳定性。首先,生成器对图像提取特征并通过上采样生成重建图像;接着,球面判别器将图像特征映射至高维球面空间,充分利用特征数据的高阶统计信息;然后,在传统判别器的基础上增加特征判别器,提取图像高频特征,重建特征高频分量和结构分量两方面;最后,对生成器与双判别器进行博弈训练,提高生成器重建图像质量。实验结果表明,所提算法能有效收敛,其网络能够稳定训练,峰值信噪比(PSNR)为31.28 dB,结构相似性(SSIM)为0.872,而与双三次差值、超分辨率残差网络(SRResNet)、加速的卷积神经网络超分辨率(FSRCNN)、基于GAN的单图像超分辨率(SRGAN)和增强型超分辨率生成对抗网络(ESRGAN)算法相比,所提算法的重建图像具有更加逼真的结构纹理细节。所提算法为基于GAN的图像超分辨率研究提供了球形矩匹配与特征判别的双判别方法,在实际应用中可行且有效。  相似文献   

9.
针对盲超分辨率重建中特征提取不准确且重建图像不够自然的问题,提出了一种基于退化感知和序列残差的图像盲超分辨率重建算法,设计了小残差组融合退化感知和序列残差相结合作为所提算法的主干网络,进一步构建了对称的增强型多尺度残差模块,并且在图像重建部分,将瓶颈注意力模块与像素重组上采样模块级联,强调图像的多维元素,最后进行了全局残差连接。实验表明,与当前代表性算法DASR相比,该算法在Set14×2上的PSNR和SSIM分别提高0.145 dB、0.001 4,在Set14×3/4上PSNR分别提高1.898 dB、0.252 dB,且在五个标准测试集上与几种当前流行的图像超分辨率算法相比取得了更好的性能。  相似文献   

10.
针对目前图像超分辨率重建算法中因退化过程过于单一所导致的网络性能下降和模型泛化能力差等问题,本文提出了多尺度残差和二阶退化的图像超分辨率重建算法。该算法首先设计了二阶退化模型,在每一阶退化过程中加入随机的下采样、模糊、噪声和压缩操作以保证退化模型的复杂性和易用性。其次提出了多尺度感受野残差密集块,利用多分支结构和空洞卷积来增强网络的特征提取能力。最后改进了上采样方式,交替使用双线性插值和亚像素卷积上采样算法,以平衡算法性能和时间复杂度。实验结果表明,该算法在三个基准数据集上的自然图像质量评估指标平均下降了1.15,且重建图像视觉观感更好,纹理细节、亮度和饱和度更加准确。  相似文献   

11.
一种改进的JPEG算法研究   总被引:3,自引:0,他引:3  
图像压缩技术是视频信息存储和传输的关键技术之一,本文首先分析了标准JPEG算法的过程和不足,理论上讨论了切匹雪夫(HEBYCHEV)算法较DCT变换的优越性,并且引入自适应量化算法对标准JPEG的量化表加以重构,通过微机仿真表明在相同压缩比的条件下较标准JPEG的恢复图像信噪比有所提高,同时恢复图像的质量也有改进,这种方法有一定的价值和实用性。  相似文献   

12.
一种分形彩色图像压缩编码方法   总被引:7,自引:1,他引:7  
焦华龙  陈刚 《软件学报》2003,14(4):864-868
在分析彩色图像色彩三分量r,g,b的相关性和分形四叉树编码层次信息冗余性的基础上,提出了一种分形彩色图像压缩编码方法.它将图像的3个独立的颜色分量按某种方式组合成1个来搜索匹配块,从而将需要存储和搜索的3个颜色分量匹配块(SFC方法)减少为1个,并且对四叉树层次信息进行压缩.此外,采用不同的组合,得到了几个图像压缩比和解码质量相近的编码方法,其中使用亮度分量的方法比使用其他方法速度更快.实验结果表明,它优于SFC方法及标准JPEG方法,不失为一种好的分形彩色图像压缩方法.  相似文献   

13.
基于ROI的分形图像压缩编码   总被引:1,自引:0,他引:1  
吴红梅  陈继荣 《计算机仿真》2006,23(10):206-208
分形图像压缩由于具有非常高的压缩比越来越受人们的关注,但是高压缩比的图像方块效应非常明显,这在很大程度上影响了解码图像的质量。为了解决这个问题,借鉴JPEG2000中提出的ROI概念,提出了将感兴趣区域(ROI)图像编码与分形图像压缩编码相结合的图像编码方法,使得重构的图像中感兴趣区域的保真度高于背景区。该方法很好地解决了图像的压缩比和重构图像质量之间的矛盾。实验结果证明:此方法在获得较高压缩比的同时,压缩编码时间大为降低,解码图像质量也有较大的改善,且总体编码性能优于JPEG编码。  相似文献   

14.
为了对固定背景视频进行压缩并获得较高的压缩比,在JPEG静止图像压缩标准的基础上提出了一种新的应用于固定背景视频压缩的算法.对第一帧图像进行JPEG格式的压缩并保存量化后的离散余弦变换系数,对第一帧后的每一帧图像,在进行离散余弦变换和量化后,先同存储器内的第一帧图像的离散余弦变换系数进行异或运算再进行熵编码.通过使用该算法和H.264视频压缩标准对同一段固定背景视频进行压缩并比较压缩后的数据量,表明了该算法具有较高的压缩比.  相似文献   

15.
基于混合分类和矩形划分的快速分形编码方法   总被引:2,自引:2,他引:0  
针对分形图像压缩中矩形划分计算量太大的问题,提出了一种混合分类方法并将其应用于图像的矩不变量,得到了一种基于矩形划分的快速分形编码方法.实验表明,该方法相对于全局搜索,在压缩比和解码质量略有下降的基础上,能极大地提高分形编码速度;与均匀分类方法相比,混合分类法可进一步提高分形编码速度并改善解码图像质量,可以在一定的条件下取得压缩比优势.  相似文献   

16.
In this paper, the one-dimensional gray polynomial interpolation (1-D GPI) developed for image enlargement in Hsieh et al. (2007) [27] is applied to reduce the block effect in the block discrete cosine transform (BDCT) image/video coders. Note that the block effect in the BDCT coders results from insufficient bits for transform coefficients. An interpolation approach is proposed to relieve the block effect problem. The proposed approach consists of three stages. First, the input image/frame is down sampled by the direct down sampling (DDS) scheme to reduce the amount of data. Second, the down sampled image/frame is put into a BDCT coder, such as the JPEG and the MPEG-2. Finally, the 1-D GPI is applied to enlarge the decoded image. When the JPEG and the MPEG-2 are used as BDCT coders, the coding systems are called the JPEG-GPI and the MPEG-GPI, respectively. The proposed JPEG-GPI and MPEG-GPI are verified through examples. Simulation results indicate that both the JPEG-GPI and the MPEG-GPI are able to effectively reduce the block effect significantly and therefore the subjective visual quality improved in the given examples. Note that (i) the down sampling scheme in the first stage can be any down sampling scheme other than the DDS, and (ii) the interpolation approach in the third stage may be different from the 1-D GPI. Thus, various down sampling schemes, the nearest neighbor down sampling (NNDS), the bilinear down sampling (BLDS), and the bicubic down sampling (BCDS) schemes are under consideration. These down sampling schemes are used to replace the DDS in the JPEG-GPI and the MPEG-GPI to investigate the effect on the coding performance. The simulation results show that the DDS always gives the highest PSNR for all cases under same condition. Moreover, the 1-GPI is substituted by popular 2-D interpolation approaches, the nearest neighbor interpolation (NNI), the bilinear interpolation (BLI), and the bicubic interpolation (BCI). With the DDS scheme, the simulation results indicate that the JPEG-BLI has a little bit better PSNR than the JPEG-GPI for all cases while similar visual quality of reconstructed image is found. When compared with the MPEG-GPI, the MPEG-BCI has higher PSNR when the DDS is employed. And the reconstructed frames from the MPEG-GPI and the MPEG-BCI have similar visual quality. In summary, by the simulation results the proposed coding system, as expected, is able to significantly reduce the block effect happened in the cases of the low bit rate coding or high compression ratio.  相似文献   

17.
针对静态医学图像压缩,介绍了两种压缩标准JPEG与JPEG2000,通过对它们的比较,突出JPEG2000的优势,诠释了JPEG2000的基本结构与编码、解码技术,描述了基于DSP的图像压缩设计方案。系统采用CCD采集数字图像,用16位定点DSP进行小波压缩,主要为了减小传输费用,试验结果表明JPEG2000对图像重现与压缩比率效果较优。  相似文献   

18.
JPEG压缩图像的解码图像与原图像差异较为明显,基于此,提出了一种基于维纳滤波器嵌入的JPEG图像动态增强算法。首先,计算压缩图像的嵌入容量;然后,在嵌入容量限制下,根据目标图像动态地计算最优的维纳滤波器对称性、精度等参数配置并将参数嵌入JPEG压缩图像中;最终,对解码图像使用提取的维纳滤波器进行增强,获得与原图像接近的解压缩图像。试验结果表明,本算法可单独增强JPEG压缩图像的质量,同时可基于其他后处理算法,进一步提高JPEG压缩图像的质量。  相似文献   

19.
基于自适应稀疏变换的指纹图像压缩   总被引:1,自引:0,他引:1  
随着指纹识别技术的广泛应用,大量指纹图像需要被收集和存储.在指纹识别系统中,对于大容量的指纹数据库,指纹图像必须经过压缩后存储以减少存储空间,本文提出了基于自适应稀疏变换的指纹图像压缩算法.该算法在离线状态下提取指纹图像特征训练超完备字典;在编码过程中,首先利用差分预测编码和稀疏变换将待压缩指纹图像转换到稀疏域,然后对直流系数和稀疏表达系数进行量化和熵编码,从而实现图像信息的压缩.实验表明,在中低码率段,本文算法相比于JPEG、JPEG2000和WSQ等主流压缩算法表现出更优越的率失真性能;在相同码率时,本文算法生成的压缩图像的主观视觉效果更好,指纹识别率更高.  相似文献   

20.
基于三维离散余弦变换的静止彩色图象压缩   总被引:2,自引:0,他引:2       下载免费PDF全文
为了既能获得较高的压缩比 ,又能保证较好的图象质量 ,提出了一种基于三维离散余弦变换 (3D DCT)的静止彩色图象编码方法 .在此算法中 ,首先将原始图象分割成互不覆盖的 8× 8子块 ;然后根据局部能量的大小将各子块分为 4类 ,再把属于同一类的子块组合到一起 ,形成三维立方体并对三维立方体进行三维离散余弦变换 ,从而提高压缩效率 .计算机模拟结果表明 ,此算法在压缩比高于 4 0时 ,其平均峰值信噪比约为 2 9d B,解压后的图象质量有较高的保真度 ,在同等情况下 ,其比 JPEG标准提高约 5 d B  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号