首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 18 毫秒
1.
成云凤  汪伟 《控制工程》2023,(5):830-840
随着医疗设备的不断改进,医学图像质量得到了大幅度提升。但是,受图像采集时间和人体承受放射剂量的限制,医学图像分辨率仍需进一步改进。在图像稀疏表示的相关理论中,双字典将图像高频细节信息看作是主要高频和残留高频的组合。基于此,提出一种基于双字典的医学图像超分辨率重建算法。首先,采用非下采样Contourlet变换提取图像特征;然后,这些特征被用于训练主字典和残差字典;最后,利用两种字典恢复出图像的主高频和残留高频,并将两种高频信息叠加到低分辨率图像上,实现重建高分辨率医学图像。实验结果表明,所提算法能有效提高重建图像质量,其性能优于其他几种算法。  相似文献   

2.
在医学影像图像处理过程中,由于成像技术和成像时间的限制,还无法获取满足诊断需求的清晰图像,这使得在现有技术和极短时间内所获取的医学病理图像需要进行超分辨率的重建处理;基于学习的图像超分辨率思想是从已建立的先验模型中重建出高频细节;在文章中,将要估计的高频信息认为是由主要高频和冗余高频两部分组成,提出了一种基于双字典学习和稀疏表示的医学图像超分辨率重建算法,由主要字典学习和冗余字典学习组成,分别渐近地恢复出主要高频细节和冗余高频细节;实验结果的数据分析和视觉效果显示,所提出双层递进方法能够恢复更多的图像细节且在性能指标上比现有的其他几种方法均有所提高。  相似文献   

3.
图像的空间分辨率受成像环境、硬件制造水平和成本等多方面因素的影响,存在一定的局限性.为了提高图像的空间分辨率,提出一种基于字典学习与结构自相似性的码本映射超分辨率算法.首先利用训练集构建与图像高低频分量对应的高低频码本,将高低频码本作为训练样本获取高低频字典;然后在初始重建图像中搜索目标图像块的相似图像块,利用相似图像块构建非局部约束项;最后通过求解含有非局部约束项的l0范数最小化问题获取目标图像块的稀疏表示系数,并利用高低频字典重建高分辨率图像块.该算法利用高低频字典表示目标图像块,而不是直接采用高低频码本,提高了算法的运算效率;利用相似图像块构建正则化约束项,提高了重建图像的质量.实验结果表明,与LLE,Sc SR和NARM等算法相比,文中算法取得的超分辨率重建效果更好.  相似文献   

4.
针对图像去噪过程中会导致细节和纹理结构信息丢失的不足,本文提出了基于字典学习和原子聚类的图像去噪算法。该算法首先利用含噪图像通过字典学习算法得到自适应的冗余字典,然后提取字典中每个原子的HOG特征和灰度统计特征构成特征集,并利用原子的特征集将冗余字典中的原子分成两类(不含噪原子和噪声原子),最后利用不含噪原子恢复图像,达到去噪的目的。实验结果表明,本文提出的算法无需知道噪声的先验信息,峰值信噪比好于现有的流行算法,且能较好地保持图像细节和纹理结构信息,提高了视觉效果。  相似文献   

5.
为了更有效地进行单幅图像去雨,提出一种群稀疏残差约束的引导字典学习算法.该算法特点在于利用混合高斯模型从自然图像中学习外部字典,面向有雨图像构建了基于外部字典引导的内部字典学习模型,并将内部字典的低秩性增加到字典学习目标函数中.该模型可以有效地利用自然图像与有雨图像先验知识之间的互补性,有助于同时恢复潜在稀疏的与稠密的图像细节.其次,基于图像的非局部自相似准则,利用群结构稀疏表示确保了相似图像块的编码系数尽可能接近,并对该模型引入残差约束,可有效地提高学习字典的重构能力与泛化能力.实验结果表明,在合成图像与真实图像上与其他算法相比,使用所提算法去雨后的图像具有更丰富的细节信息,图像更清晰,大大改善了整体视觉效果.  相似文献   

6.
针对非局部均值中相似度的衡量问题,提出了一种基于字典学习的度量算法。首先利用局部像素群块匹配方法消除不相似的图像块带来的干扰,然后对含有噪声的相似块采用字典学习的方法降噪。与经典的字典学习不同的是,对相似块采用联合稀疏编码的思想,利用主成分分析法学习一个高效紧字典,保留相似块间的相关性信息。采用降噪后的图像块间的欧氏距离计算像素间的相似度,能更好地反映相似块的相似性。实验结果表明,所提出的方法在峰值信噪比和视觉效果方面都优于传统算法,尤其对含有较多细节且结构相似性强的图像,细节和纹理部分的保持效果更好,算法的鲁棒性也优于传统算法.  相似文献   

7.
林莉  唐昌华  王岩  冯伟志 《计算机仿真》2024,(4):210-213+288
相对于低分辨率图像,高分辨率图像需要增加的像素数目更多,且需要增加高频信息以提升图像的清晰度,当图像目标与背景之间对比度较大时,图像高频细节信息复原难度较高。为此,提出基于改进机器学习的超分辨率图像细节复原方法。对图像去噪,并结合采用双边滤波方法实现图像的对比度增强;利用改进字典的机器学习算法建立双层字典,结合稀疏表示算法获取一层的粗略复原图像;通过二层字典计算一层复原图像与原始图像之间的差值,建立高分辨率样本,并对其开展二层字典训练,通过训练结构实现超分辨率图像的细节复原。实验结果表明,研究方法应用下峰值信噪比可保持在20dB以上,细节复原均方差低于4×10-3,结构相似性指标更高,高分辨率图像的训练效果更好,特征对比明显,细节信息突出。  相似文献   

8.
为了更有效地结合高分辨率全色(PAN)图像细节信息和低分辨率多光谱(MS)图像光谱信息,提出了一种改进的全色锐化算法。首先,对低分辨率MS图像的强度通道进行下采样再上采样获取其低频成分;其次,用强度通道减去低频成分获取其高频成分,在获取到的高低频成分中进行随机采样来构建字典;然后,用构建好的过完备字典对高分辨率PAN图像进行分块分解以获取高频信息;最后,将分解出的高频信息注入到低分辨率MS图像中以重建高分辨率MS图像。经多组实验后发现,所提出的算法在主观上保留了光谱信息,并注入了大量的空间细节信息。对比结果表明,相比其他诸如基于成分替换算法、基于多分辨率分析算法、基于稀疏表示算法,所提算法重建出来的高分辨率MS图像更加清晰,且在相关系数等多种客观评价指标上优于对比算法。  相似文献   

9.
在基于字典的单帧图像超分辨率重建算法中,依赖人工浅层特征设计的字典表达图像特征能力有限。为此,提出基于深度学习特征字典的超分辨重建方法。该算法首先利用深度网络进行高、低分辨率训练样本图像深层次特征学习;然后,在稀疏字典超分辨框架下联合训练特征字典;最后,输入单帧低分辨率图像并利用该字典实现超分辨率重建。理论分析表明,引入深度网络提取图像深层次特征并用于字典训练,对低分辨率图像的高频信息补充更加有利。实验证明,与双三次插值以及基于一般人工特征字典的超分辨重建算法相比,本文算法的主观视觉和客观评价指标均高于对比算法。  相似文献   

10.
针对通过外部学习进行超分辨率存在图像质量不佳、细节不真实的问题提出一种压缩感知和相似性约束的单帧图像超分辨率算法。算法首先利用压缩感知中测量域与频域的线性关系对训练库图像在测量域分类,对不同类别图像块训练对应类别的字典,提高字典的表示能力;然后在重构时利用图像的非局部相似性,将图像在分类字典下的稀疏性和相似块信息同时作为先验信息联合约束重构过程,最后恢复出高分辨率图像。实验结果表明算法重构出的高分辨率图像具有丰富的细节以及清晰的边缘,重构图像主观质量良好。  相似文献   

11.
目的 为了提高图像超分辨率算法对数据奇异点的鲁棒性,提出一种采用K均值聚类和支持向量数据描述的图像超分辨率重建算法(Kmeans-SVDD)。方法 训练过程:首先用K均值聚类算法将训练图像的近似子带划分为若干类,然后用支持向量数据描述去除每类数据的奇异点,最后在小波域内用主成分分析训练近似子带和细节子带字典。测试过程:根据同一场景高低分辨率图像近似子带相似这一现象,首先将待重建低分辨率测试图像的近似子带作为相应高分辨率测试图像的近似子带,然后由训练得到的字典恢复出高分辨率测试图像的细节子带,最后通过逆小波变换得到高分辨率测试图像。结果 相比于当前双三次插值、Zeyde、ANR与Kmeans-PCA算法,Kmeans-SVDD算法重建的高分辨率测试图像的平均峰值信噪比依次提高了1.82 dB、0.37 dB、0.30 dB、0.15 dB。结论 通过大量实验发现,在字典训练之前加入SVDD过程可以去除离群点,提高字典质量。在小波域中将各频带分开重建,可避免低频图像中包含的不可靠高频信息对超分辨率结果的影响,从而恢复出可靠的高频信息。  相似文献   

12.
基于自相似性车载采集城市街景图像的重建   总被引:1,自引:0,他引:1  
大众化的车载为确保实时、高速的图像显示及图像存储,其捕获的图像通常会呈现出较低的分辨率,严重影响了突发状况时有效图像信息的获取。针对该低分辨率的城市街景图像采用了一种基于透视变换、高频补偿的自相似性图像重建方法。该算法在仿射变换的基础上增加了透视变换来进行图像块的匹配,并对每一个匹配的图像块进行高频补偿以恢复构建图像金字塔时丢失的高频信息,通过多尺度非局部方法搜索图像金字塔,合成匹配图像块得到最终的高分辨率图像。采用该算法对采集到的大量低分辨率城市街景图像进行重建,并与ScSR、Upscaling、SCN这三种典型的算法进行对比,实验结果表明该算法在几种盲评价指标上较其他算法好,在提高图像分辨率的同时能保持图像的边缘和细节信息。  相似文献   

13.
Super resolution (SR) of remote sensing images is significant for improving accuracy of target identification and for image fusing.Conventional fusion-based methods inevitably result in distortion of spectral information,a feasible solution to the problem is the single-image based super resolution.In this work,we proposed a single-image based approach to super resolution of multiband remote sensing images.The method combines the EMD (Empirical Mode Decomposition),compressed sensing and PCA to dictionary learning and super resolution reconstruction of remote sensing color image.First,the original image is decomposed into a series of IMFs(Intrinsic Mode Function) according to their frequency component by using EMD,and the super resolution is implemented only on IMF1,which includes high-frequency component;then the K-SVD algorithm is used to learn and obtain overcomplete dictionaries,and the MOP (Orthogonal Matching Pursuit) algorithm is used to reconstruct the IMF1;Finally,the up-scaled IMF1 is combined with other IMFs to acquire the super resolution of original image.For a multiband image reconstruction,a PCA transform is first implemented on multiband image,and the PC1 is adopted for learning to get overcomplete dictionaries,the obtained dictionaries is then used to super-resolution reconstruction of each multi-spectral band.The Geoeye-1 panchromatic and multi-spectral images are used as experimental data to demonstrate the effectiveness of the proposed algorithm.The results show that the proposed method is workable to exhibit the detail within the images.  相似文献   

14.
基于FPDE的红外与可见光图像融合算法   总被引:2,自引:2,他引:0  
针对传统红外与可见光图像融合算法中存在的细节信息不够丰富, 边缘信息保留不够充分等问题, 文中提出了一种基于四阶偏微分方程(Fourth-order partial differential equation, FPDE)的改进的图像融合算法.算法首先采用FPDE将已配准的红外与可见光图像进行分解, 得到高频分量和低频分量; 然后, 对高频分量采用基于主成分分析(Principal component analysis, PCA)的融合规则来得到细节图像, 对低频分量采用基于期望值最大(Expectation maximization, EM)的融合规则来得到近似图像; 最后, 通过组合最终的高频分量和低频分量来重构得到最终的融合结果.实验是建立在标准的融合数据集上进行的, 并与传统的和最近的融合方法进行比较, 结果证明所提方法得到的融合图像比现有的融合方法能有效地综合红外与可见光图像中的重要信息, 有更好的视觉效果.  相似文献   

15.
Removing rain from a single image is a challenging task due to the absence of temporal information. Considering that a rainy image can be decomposed into the low-frequency (LF) and high-frequency (HF) components, where the coarse scale information is retained in the LF component and the rain streaks and texture correspond to the HF component, we propose a single image rain removal algorithm using image decomposition and a dense network. We design two task-driven sub-networks to estimate the LF and non-rain HF components of a rainy image. The high-frequency estimation sub-network employs a densely connected network structure, while the low-frequency sub-network uses a simple convolutional neural network (CNN). We add total variation (TV) regularization and LF-channel fidelity terms to the loss function to optimize the two subnetworks jointly. The method then obtains de-rained output by combining the estimated LF and non-rain HF components. Extensive experiments on synthetic and real-world rainy images demonstrate that our method removes rain streaks while preserving non-rain details, and achieves superior de-raining performance both perceptually and quantitatively.   相似文献   

16.
Multi-fidelity (MF) metamodeling approaches have recently attracted a significant amount of attention in simulation-based design optimization due to their ability to conduct trade-offs between high accuracy and low computational expenses by integrating the information from high-fidelity (HF) and low-fidelity (LF) models. While existing MF metamodel assisted design optimization approaches may yield an inferior or even infeasible solution since they generally treat the MF metamodel as the real HF model and ignore the interpolation uncertainties from the MF metamodel. This situation will be more serious in non-deterministic optimization. Hence, in this work, a MF metamodel assisted robust optimization approach is developed, in which the interpolation uncertainty of the MF metamodel and design variable uncertainty are quantified and taken into consideration. To demonstrate the effectiveness and merits of the proposed approach, two numerical examples and a long cylinder pressure vessel design optimization problem are tested. Results show that for the test cases the proposed approach can obtain a solution that is both optimal and within the feasible region even with perturbation of the uncertain variables.  相似文献   

17.
在多光谱和全色影像分辨率相差较大情况下,IHS遥感影像融合方法会因光谱分配问题导致一定的光谱扭曲;而小波变换方法在变换域具有良好的分频特性,且融合规则和算子对融合效果作用明显。将IHS和小波变换结合,通过试验分析发现小波分解得到的低频部分与光谱信息关系密切、高频部分与空间信息关系密切。在试验分析的基础上分别给出低频、高频部分的融合规则和算子,应用于BJ-1卫星数据的自身融合验证表明,在保持空间清晰度的同时能够明显地降低光谱扭曲程度,较好解决了其多光谱和全色影像分辨率相差较大对数据融合的影响,相比传统的IHS方法有效降低了光谱扭曲。
  相似文献   

18.
功率谱分析是目前心率变异性分析的主要方法。文中对比周期图法简要介绍了自回归模型(Autoregressive models)功率谱估计的原理,并由此出发对心率变异信号进行功率谱分析。心率变异信号功率可划分为代表不同生理意义的特征谱段。医学上通常采用这些谱段中的所谓低频谱段与高频谱段的比值LF/HF作为衡量心脏生理功能的一项有效指标。文中探讨了根据当前心率变异功率谱特征谱段划分方案得出的LF/HF指  相似文献   

19.
影像融合可以显著提高影像的空间分辨率,但融合时高频信息的注入势必会造成融合影像的光谱失真。在对FIHS(Fast Intensity-Hue-Saturation)算法和BT(Brovey Transformation)算法光谱失真原理研究的基础上,提出一种能有效减弱光谱失真和提高影像空间分辨率的FIHS-BT算法。该算法通过利用全色影像的低频信息和多光谱影像生成模拟全色影像,减弱全色影像低频信息对融合影像光谱信息的影响,削弱多光谱影像高频信息对融合影像高频信息的干扰;然后,采用FIHS和BT乘积的平方根生成融合影像,以减小饱和度在变换中被拉伸或压缩的程度。选取IKONOS影像为数据源,采用BT等九种融合算法与FIHS-BT算法进行融合比较实验,并对融合结果从光谱保真度和高频信息融入度两个方面进行定性和定量评价。实验结果表明,FIHS-BT算法在光谱保真度和高频信息融入度方面较FIHS算法和BT算法均有显著改善。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号