首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
一种结合图割与双水平集的图像分割方法   总被引:2,自引:0,他引:2       下载免费PDF全文
针对水平集方法在图像分割中需要多次迭代,且计算量大的问题,提出一种基于图割与双水平集的图像分割方法。首先在目标边界内外部各设置一条初始轮廓线和一个阈值,通过双水平集方法对轮廓线进行演化。当轮廓线的能量变化率小于给定阈值时,终止水平集演化。将得到的两条轮廓线化为源点和汇点,通过图割方法得到最终目标边界。该方法有效减少了水平集迭代次数,提高了分割效率,而且给出了一种终止水平集迭代的方式。实验表明该方法具有较好的分割效果和较高的分割效率。  相似文献   

2.
针对合成孔径雷达(SAR)图像的分割问题,提出一种改进的参数核图割方法。对参数核图割方法中的能量函数进行改进,在核空间中考虑分段常数模型,并实现目标函数的空间核化。SAR图像的分割通过能量函数的最小化实现,由不动点迭代估计区域参数,并由图割模型逐步最小化能量函数实现SAR图像的分割。为验证改进参数核图割方法的分割效果,对自然图像进行分割,结果表明,其分割精度达到83%,比参数核图割方法提高了11%。真实SAR图像的分割结果验证了该方法对SAR图像的分割结果优于参数核图割方法。  相似文献   

3.
一种提花织物图像的有限元分割算法   总被引:5,自引:0,他引:5       下载免费PDF全文
提花织物图像分割是提花图案设计的关键,曲线演化模型是一种流行的图像分割方法,但是该方法无法检测含噪环境下的图像特征.由于Mumford-Shah(MS)模型能够在噪声环境下对不连续边集进行检测,因此它比曲线演化模型更适于对含噪提花织物图像的分割.提出一种结合有限元法和拟牛顿法的MS模型数值求解算法,并有效用于含噪提花织物图像的分割.首先定义了自适应三角剖分空间上的离散MS模型,并在每次迭代前对有限元网格进行自适应调整,以提高迭代的性能.接着采用拟牛顿最小化方法,通过收敛意义上的离散有限元逼近得到离散MS模型的最小值.该算法被用到含噪提花织物图像的分割中,取得了良好的效果.  相似文献   

4.
王荣淼  张峰峰  詹蔚  陈军  吴昊 《计算机应用》2019,39(11):3366-3369
传统模糊C均值(FCM)聚类算法应用于肝脏CT图像分割时仅考虑像素本身特征,无法解决灰度不均匀造成的影响以及肝脏边界模糊造成的边界泄露的问题。为解决上述问题,提出一种结合空间约束的模糊C均值(SFCM)聚类分割算法。首先,使用二维高斯分布函数构建卷积核,利用该卷积核对源图像进行空间信息提取得到特征矩阵;然后,引入空间约束惩罚项,更新并优化目标函数得到新的迭代方程;最后,通过多次迭代,完成对肝脏CT图像的分割。实验结果表明,SFCM算法分割具有灰度不均匀和边界粘连的肝脏CT图像时得到的肝脏轮廓形状更加规则,准确率达到92.8%,比FCM和直觉模糊C均值(IFCM)算法的分割准确率分别提升了2.3和4.3个百分点,过分割率分别降低了4.9和5.3个百分点。  相似文献   

5.
针对腹部CT图像肝脏肿瘤对比度低、边界模糊、灰度多样等因素引起的分割困难,提出基于非线性增强和图割的肝脏肿瘤自动分割.首先根据肝脏区域灰度分布特性,采用自适应分段非线性增强和迭代卷积操作提高正常肝实质与肿瘤组织的对比度;然后将增强结果和图像边界信息有效地融入图割能量函数,实现肝脏肿瘤初步自动分割结果;最后采用三维形态学开操作对初步分割结果进行优化,去除其中的误分割区域,提高分割精度.在3Dircadb和XYH数据库上的实验结果表明,该方法能有效地自动分割腹部CT序列中的肝脏肿瘤,且综合分割性能优于现有多种方法.  相似文献   

6.
基于遗传神经网络的图像分割   总被引:1,自引:0,他引:1  
提出一种基于遗传神经网络的图像分割方法.该方法利用遗传算法对BP神经网络的权值和阈值进行优化,设计出误差最小的神经网络,然后用神经网络算法迭代实现图像的分割.通过实验证明:该方法与传统的图像分割方法相比,具有更好的图像分割效果;与BP神经网络相比,训练速度得到很大的提高.  相似文献   

7.
对具有边界不明显和亮度非均匀特征的图像,如金相学图像,使用传统方法进行分割难以得到令人满意的分割效果.因此,提出了一种新的图像分割算法--基于迭代过程的分水岭改进算法.该算法运用脊来限定区域生长的范围,采用双阈值方法选择种子,而脊叠加为分水岭算法中的最高吃水线.为了解决过分割的问题,利用贝叶斯分类规则反复地进行区域块的合并.实验结果表明,在无需调整太多参数的情况下,该算法可以有效地实现图像分割.  相似文献   

8.
崔文超  王毅  樊养余  冯燕 《计算机工程》2012,38(24):200-204
基于局部区域二相拟合(LBF)模型的医学图像分割方法,对初始轮廓敏感并仅能分割单类目标,若手动选取的初始轮廓不合适,将导致算法耗时过大甚至分割失败。针对上述不足,提出联合模糊C均值(FCM)聚类的LBF模型自动分割算法。对待分割图像进行FCM聚类,将得到的目标类隶属度值变换为适用于LBF模型的水平集函数初始值,利用LBF模型从该初始值开始演化直至收敛,从而完成分割。合成图像及血管和脑部图像的分割实验结果表明,该算法能够自动获取合适的初始值,有效解决LBF模型对初始轮廓敏感的问题,减少迭代次数,而且通过选择不同的FCM聚类结果,可以实现对多类目标的分割。  相似文献   

9.
张雪峰  商丽丽 《控制工程》2011,18(6):848-850
针对其他算法分割图像耗时较多的问题,结合粒子群优化算法和变精度粗糙集理论提出了一种新的分割算法.利用粗糙集理论将图像按照一定的规则进行划分,找出图像的边界.利用变精度粗糙集理论对图像子块的边界进行计算,利用粒子群优化算法寻找最佳的β及其对应的灰度值,并对图像进行分割.通过对测试图像进行Matlab仿真,验证了算法的效果...  相似文献   

10.
基于Graph Cut与区域生长的连续CT图像分割算法   总被引:1,自引:0,他引:1  
Graph Cut方法用于医学图像分割具有精度高,分割准确等优点,但处理每一幅图片都需要用户选定对象和背景,耗时较长.区域生长方法适于对面积不大的区域进行分割,分割速度快,但需要人工选取种子点,且在对比度低的情况下分割效果不理想.针对医学CT连续断层图像间相关性强特点,提出一种把Graph Cut方法和区域生长方法相结合的图像分割算法GCRGIS.首先使用Graph Cut法对连续断层图像的首幅图像进行分割,以分割出的图像轮廓作为后幅断层图像待生长区域的边缘,将边缘进行腐蚀后再进行区域生长,分割出目标图像.实验结果表明,该方法处理连续CT图像时仅需对首幅图像进行人工交互,在后续图像的分割中避免了每幅图像都要人工交互的繁琐,分割效果好,速度快.  相似文献   

11.
多光谱图像与全色图像的像素级融合研究   总被引:20,自引:0,他引:20  
以高空间分辨率的全色图像与高光谱分辨率的多光谱图像进行像素级双源融合为例,详细地总结了卫星多源遥感图像融合领域像素级融合的步骤、基本融合模型和优缺点,重点分析了各种常见像素级融合方法的原理和特点,并归纳了像素级融合结果的主客观评价标准和评价方法,以及像素级融合的主要应用领域,最后讨论了像素级融合目前存在的问题和今后的发展方向。  相似文献   

12.
图像镶嵌技术是近年来发展迅速的图像处理技术之一,是计算机视觉领域和计算机图形学领域都十分关注的研究热点之一。通过对现有遥感图像镶嵌方法的研究,时其进行了归纳和总结,并介绍了几种常见的图像镶嵌关键技术。  相似文献   

13.
针对全景拼接图像尚无有效的全参考质量评价方法,无法有效地选择最佳拼接方案以及优化系统参数的问题,创新性地提出一种基于图像信息采样的质量评价方法,即通过统计俯视图像素在原始图像中的对应分布,对原始图像素的重采样率和均值方差等统计信息进行分析评估。首先介绍一种车载环视摄像头下4个不同角度的视频图像拼接的方法,然后提出像素采样率性能指标,最后通过仿真实验与实际测试,对比图像方差、熵值和平均梯度等指标,证明了提出的评价方法能够有效地评价拼接图像质量和优化摄像头安装参数。  相似文献   

14.
中巴地球资源卫星(CBERS)02B星HR相机所获得的高分辨率遥感图像,是由3片TDICCD影像组成,由于TDICCD空间结构关系,导致3片TDICCD的原始影像间存在偏移现象。为此,在充分考虑TDICCD图像的空间几何特征和图像像元间相关性的基础上,利用基于灰度的匹配算法,并结合TDICCD成像原理的特点,提出了一种新的高分辨率遥感CBERS\|02B星HR相机的影像拼接方法,整景拼接精度达到亚像元级。  相似文献   

15.
Image     
Abstract

In a few short years, Google has become one of the world's best known brands. Its strategies to preserve the brand image pose a challenge for information professionals who attempt to present Google's capabilities in a factual manner.  相似文献   

16.
针对传统图像检索系统通过关键字搜索图像时缺乏语义主题多样性的问题,提出了一种基于互近邻一致性和近邻传播的代表性图像选取算法,为每个查询选取与其相关的不同语义主题的图像集合. 该算法利用互近邻一致性调整图像间的相似度,再进行近邻传播(AP)聚类将图像集分为若干簇,最后通过簇排序选取代表性图像簇并从中选取中心图像为代表性图像. 实验表明,本文方法的性能超过基于K-means的方法和基于Greedy K-means的方法,所选图像能直观有效地概括源图像集的内容,并且在语义上多样化.  相似文献   

17.
This paper proposes two new non-reference image quality metrics that can be adopted by the state-of-the-art image/video denoising algorithms for auto-denoising. The first metric is proposed based on the assumption that the noise should be independent of the original image. A direct measurement of this dependence is, however, impractical due to the relatively low accuracy of existing denoising method. The proposed metric thus tackles the homogeneous regions and highly-structured regions separately. Nevertheless, this metric is only stable when the noise level is relatively low. Most denoising algorithms reduce noise by (weighted) averaging repeated noisy measurements. As a result, another metric is proposed for high-level noise based on the fact that more noisy measurements will be required when the noise level increases. The number of measurements before converging is thus related to the quality of noisy images. Our patch-matching based metric proposes to iteratively find and add noisy image measurements for averaging until there is no visible difference between two successively averaged images. Both metrics are evaluated on LIVE2 (Sheikh et al. in LIVE image quality assessment database release 2: 2013) and TID2013 (Ponomarenko et al. in Color image database tid2013: Peculiarities and preliminary results: 2005) data sets using standard Spearman and Kendall rank-order correlation coefficients (ROCC), showing that they subjectively outperforms current state-of-the-art no-reference metrics. Quantitative evaluation w.r.t. different level of synthetic noisy images also demonstrates consistently higher performance over state-of-the-art non-reference metrics when used for image denoising.  相似文献   

18.
基于内容检索的图像自动标注方法研究   总被引:1,自引:1,他引:0  
图像标注技术是近年来的研究热点。为了更好地解决图像自动标注问题,提出了一个基于检索和重排序的标注方法。在检索阶段,通过使用基于MSF的全局特征对待标注图像进行基于内容的检索,从而在图像数据库中得到一系列的相似图像数据集;在重排序阶段,利用随机漫步方法对相似图像数据集的标注信息进行重排序,最终排序后的关键词则为待标注图像的标注信息。该方法不仅跳过了漫长的训练阶段,而且充分利用了网络上那些已经具有标注信息的图像,具有较好的稳定性和可扩展性。实验结果显示了该方法的有效性。  相似文献   

19.
对Meyer图像分解模型进行改进,所得到的新模型SID(Simplified image decomposition)无需Banach空间的范数计算,降低了计算复杂度.使用SID首先分离出图像中的大部分噪声,然后将剩余部分分解成结构部分和纹理部分.对结构部分使用简化的整体变分修复算法,对噪声部分和纹理部分使用基于样本的纹理合成,再将结果融合.实验结果表明,该方法克服了单独使用整体变分修复算法纹理合成的局限性,对噪声具有较好的鲁棒性.  相似文献   

20.
离焦模糊图像的盲复原算法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对离焦模糊图像,提出了一种盲复原算法。该算法首先利用Hough变换检测出离焦图像中的直线边缘,然后基于图像的空域统计特性和修正的Grubbs检验法,定位出阶跃或近似阶跃直线边缘,在此基础上自适应计算出线扩散函数,最后利用线扩散函数求取离焦模糊半径,进而用Wiener滤波完成了图像的复原。实验结果表明,对真实的离焦模糊图像,该算法能够准确地检测和定位出阶跃或近似阶跃边缘,提高离焦模糊半径的鉴别精度和图像的复原效果,已在实际刑侦取证工作中获得较为成功的应用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号