首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
为了改善医学图像的分割精度和分割效率,针对模糊局部C-均值 (fuzzy local information C-Means, FLICM)系列算法分割效率低、局部空间信息描述不够准确,提出结合空间约束分水岭 (Spatial-Constrained Watershed, SCoW)的改进FLICM分割算法。首先对图像SCoW预处理分块,压缩预处理数据;然后修正细分割处理,提取各超像素块的均值特征;最后设计一种改进的FLICM算法对各超像素块聚类,完成图像分割。相比较于原FLICM算法的图像分割,本文算法的分割精度更高,分割效率大大提升。经理论分析和实验测试表明,该改进算法更适用于医学临床诊断的需要。  相似文献   

2.
工业检测图像经常受到不均光照的影响,对该类图像局部自适应分割算法比全局算法能产生更好的分割效果. 但局部算法中基于分块的算法对分块方法缺乏指导,而基于邻域的算法容易在背景或前景内部产生误分. 针对上述缺点,本文提出了一种多方向灰度波动变换的自适应阈值分割算法. 该算法先从多个方向依照灰度波动对图像进行转换,构造以多维向量为基础的灰度波动变换矩阵, 然后利用主成分分析法(Principal component analysis, PCA)将高维向量压缩至一维并生成变换图像,最后运用Otsu算法分割变换图像. 该算法无需分块,并且仅需波动幅度阈值和布尔型背景色两个参数. 实验结果表明,该算法能够有效减少不均光照对工业检测图像分割的影响, 与Niblack法、Sauvola法等几种局部算法相比,该法在分割效果上具有了明显的提升.  相似文献   

3.
针对现有地貌晕渲算法多是基于单核单线程编程模式从而导致计算效率较低的问题,提出利用多核并行计算模式对现有地貌晕渲算法进行并行化改进。首先,通过格网分割方式对原始数字高程模型(DEM)数据进行分割从而实现数据分块;其次,利用.NET环境下的Parallel类对分块数据进行并行晕渲处理,得到各个分块数据的晕渲结果;最后,对各个分块数据的晕渲图像进行拼接,从而得到完整的地貌晕渲图像。实验结果表明:并行化改进算法的计算效率明显高于现有单核单线程地貌晕渲算法,且参与计算核数与晕渲效率基本上呈线性增长关系;同时,分析发现地貌晕渲的立体真实感与光源参数的设置极其相关。  相似文献   

4.
对多核环境下的图像分割并行算法进行研究,在基于正交小波分解的多分辨率图像锥中引入模糊C-均值(FCM)算法,采用OpenMP语言设计P-FCM多核并行模型,并给出该模型的算法实现步骤。在对初始图像数据预处理时,采用矩形块数据分割法进行图像分块,将分块后的子图像数据作为并行运算时的输入数据由主线程分给不同的处理器。实验结果表明,在处理较大图像时,该算法效率较高。  相似文献   

5.
基于图像区域的交互式文本图像阈值分割算法   总被引:1,自引:0,他引:1  
针对现有局部阈值分割算法因参数过多带来的参数选择问题以及在分割结果中块与块之间不连续性问题,利用用户提供的先验知识或经验,提出了一种基于灰度图像区域的交互式文本图像阈值分割算法.该方法首先粗略地将图像进行分块;利用标准差作为衡量图像块含有信息量(背景信息与目标信息)多少这一度量,接着按标准差大小对所有图像块进行排序;然后由用户输入交互式信息将所有图像块分为3个集合:仅含背景或仅含目标的图像块、含有少量背景或者是含有少量目标的图像块以及背景和目标分布比较均衡的图像块;最后对各个集合中的图像块分别按相应准则进行分割.实验结果表明,对于均匀和非均匀光照条件下的文本图像,与全局分割算法、直接分块分割算法和Chou方法相比,该方法在分割效果上有显著提升,而且执行效率也较高.另外,对于部分非文本图像也同样有效.  相似文献   

6.
现有的图像分块方法在处理前将源噪声图像分割成不同的小块,分别独立进行去噪,最后将所有小块拼接。该方法所得图像的去噪效果有一定程度的提高,但在相邻分块结合处存在不连续。对去噪方法的现状进行了分析,并结合最小化总变差及分块思想,提出新的去噪方法:在每小块处理过程中,分块值参与判断终止,整幅图像值计算去噪图像;对各块所得去噪图像取均值,得到最终的结果;对新算法进行优化,提高了算法运行效率。分析实验结果表明,该方法在计算效率和信噪比上均有显著提高。  相似文献   

7.
为正确定位二维条码在图像中的位置,提出一种多尺度分割定位算法。在最初分割中,图像被分成若干分块。根据分块的黑白像素比、高频子带系数方差等特征值,将分块分割为条码和非条码区域。随着尺度的增加,利用多尺度分割模型对下一尺度的分割结果进行修正。以此类推,直至最精细尺度,得到条码在图像中的定位。实验结果表明该算法能较好地分割出图像的条码区域。特别在含有大量文字等复杂背景的情况下,该方法具有一定优势。  相似文献   

8.
针对交通视频运动目标分割中,信息量大,运算耗时的特点。提出一种新的快速运动目标分割方法。首先选择两帧合适图像相减并取绝对值,然后对所得图像进行分块,判断应该被舍弃的子块。选择剩下的子块进行最大内间差分运算,分割出运动目标。试验结果表明这种方法能够在满足交通视频图像目标分割的基础上大大提高算法效率。  相似文献   

9.
针对以像素为节点建立图模型进行图像分割耗时的特点,文中提出了一种基于超像素的Grabcut彩色图像分割方法.首先用户在目标所在区域手动标定一个矩形框;然后用两次分水岭算法将图像过分割成区域内颜色相似的小区域(超像素),用分割得到的超像素作为图的结点构建图模型;以每个超像素的颜色均值代表所在分块的全部像素点估计GMM(高斯混合模型)参数;最后用最小割算法求得吉布斯能量的最小值达到最优分割.实验结果表明,该算法以极少数超像素代替海量像素,在得到较好分割结果的同时,极大地缩短了运行时间,加快了分割速度,提高了效率.  相似文献   

10.
针对当前的灰度图像加密存在运算效率低以及有损图像性质等不足,设计了像素混合机制,提出基于扩散替代的灰度图像加密算法。首先利用像素混合机制预处理图像;再将混合图像分割成相关密钥的动态分块,基于所设计的置乱规则,对混合图像分块置乱;再由所设计的替代结构,对置乱分块进行加密;重组密文块,输出密文。该灰度图像加密算法显著避免了当前加密算法依赖多系统参数带来的严重时耗难题并保证了解密图像质量。最后在MATLAB仿真平台上测试该算法,结果显示:与当前加密机制对比,该算法具有接近的安全性能,且运算效率更高,解密质量更好。  相似文献   

11.
GrabCut算法作为一种典型的交互式彩色图像分割算法,是计算机图像领域中的重要技术手段。然而随着大数据时代的到来,图像数据种类和数量都呈指数级增长,显著地增加了图像分割的任务量,对图像分割效率提出了更高的要求。针对GrabCut算法图像分割效率及精度低的问题,提出了一种改进的One Cut交互式图像分割算法。首先采用One Cut的L1距离项构建能量函数避免GrabCut算法所面临的NP hard问题。然后改进能量函数中表观重叠惩罚项,并结合颜色直方图加速技术,优化网络图结构,显著降低网络图的复杂度,从而提高图像分割的效率及精度。实验结果表明,改进后的One Cut图像分割算法显著提升了图像分割效率,提高了分割精度,得到了较好分割结果。  相似文献   

12.
Efficient, interactive foreground/background segmentation in video is of great practical importance in video editing. This paper proposes an interactive and unsupervised video object segmentation algorithm named E-GrabCut concentrating on achieving both of the segmentation quality and time efficiency as highly demanded in the related filed. There are three features in the proposed algorithms. Firstly, we have developed a powerful, non-iterative version of the optimization process for each frame. Secondly, more user interaction in the first frame is used to improve the Gaussian Mixture Model (GMM). Thirdly, a robust algorithm for the following frame segmentation has been developed by reusing the previous GMM. Extensive experiments demonstrate that our method outperforms the state-of-the-art video segmentation algorithm in terms of integration of time efficiency and segmentation quality.  相似文献   

13.
为提升K均值聚类的效率及图像分割效果,提出了一种不完全K均值聚类与分类优化结合的图像分割(IKCO)算法。首先,采用简单的方法来进行数据精简及初始中心的确定;然后,根据给出的不完全聚类准则对图像进行聚类分割;最后,对分割结果进行分类优化以提升分割效果。实验结果表明,相对于传统的K均值聚类方法,IKCO算法在进行图像分割时具有很好的分割效率,且分割效果与人类视觉感知具有更高的一致性。  相似文献   

14.
近年来,超像素算法被应用到计算机视觉的各个领域。超像素捕获图像冗余信息,降低图像后续处理的复杂度。超像素分割作为图像的预处理过程需要满足图像处理的实时性和准确性。在SLIC算法的框架下,所提算法的主要目的是提高超像素分割的效率;通过原图像降尺度过程,提取原图像中少量像素,生成降尺度图像;利用SLIC算法对降尺度图像进行超像素分割;初次超像素分割之后,根据降尺度图像的分割结果对原图像中像素进行K近邻分类,实现原图像的超像素最终分割结果。实验表明,对于同一处理对象,在准确度相近的状态下,本算法处理速度高于SLIC算法。  相似文献   

15.

The high-resolution synthetic aperture radar (SAR) images usually contain inhomogeneous coherent speckle noises. For the high-resolution SAR image segmentation with such noises, the conventional methods based on pulse coupled neural networks (PCNN) have to face heavy parameters with a low efficiency. In order to solve the problems, this paper proposes a novel SAR image segmentation algorithm based on non-subsampling Contourlet transform (NSCT) denoising and quantum immune genetic algorithm (QIGA) improved PCNN models. The proposed method first denoising the SAR images for a pre-processing based on NSCT. Then, by using the QIGA to select parameters for the PCNN models, such models self-adaptively select the suitable parameters for segmentation of SAR images with different scenes. This method decreases the number of parameters in the PCNN models and improves the efficiency of PCNN models. At last, by using the optimal threshold to binary the segmented SAR images, the small objects and large scales from the original SAR images will be segmented. To validate the feasibility and effectiveness of the proposed algorithm, four different comparable experiments are applied to validate the proposed algorithm. Experimental results have shown that NSCT pre-processing has a better performance for coherent speckle noises suppression, and QIGA-PCNN model based on denoised SAR images has an obvious segmentation performance improvement on region consistency and region contrast than state-of-the-arts methods. Besides, the segmentation efficiency is also improved than conventional PCNN model, and the level of time complexity meets the state-of-the-arts methods. Our proposed NSCT+QIGA-PCNN model can be used for small object segmentation and large scale segmentation in high-resolution SAR images. The segmented results will be further used for object classification and recognition, regions of interest extraction, and moving object detection and tracking.

  相似文献   

16.
基于遗传算法的原位根系CT图像的模糊阈值分割   总被引:2,自引:0,他引:2       下载免费PDF全文
原位根系CT图像的精确分割是实现植物根系3维重建和定量分析的重要基础。为了对原位根系CT序列图像进行准确、有效的分割,针对原位根系CT序列图像固有的模糊性特征,设计了一种基于遗传算法的模糊多阈值图像分割方法。该方法首先通过直方图分析确定了原位根系3维分割的初始阈值范围;然后通过设计一种模糊隶属度函数, 将图像模糊划分为若干个不同的区域; 最后采用最大模糊熵准则,并借助遗传算法寻找确定了一组序列图像的最佳分割阈值。编程实验结果证实,该算法不仅能更加准确、有效地对植物根系原位CT序列图像进行分割,并可提高图像阈值分割的精度和效率。  相似文献   

17.
In this paper we present a novel edge detection algorithm for range images based on a scan line approximation technique. Compared to the known methods in the literature, our algorithm has a number of advantages. It provides edge strength measures that have a straightforward geometric interpretation and supports a classification of edge points into several subtypes. We give a definition of optimal edge detectors and compare our algorithm to this theoretical model. We have carried out extensive tests using real range images acquired by four range scanners with quite different characteristics. Using a simple contour closure technique, we show that our edge detection method is able to achieve a complete range image segmentation into regions. This edge-based segmentation approach turns out to be superior to many region-based methods with regard to both segmentation quality and computational efficiency. The good results that were achieved demonstrate the practical usefulness of our edge detection algorithm.  相似文献   

18.
针对GrabCut算法在图像分割中存在迭代求解耗时长、分割结果欠分割的问题,提出了一种基于非归一化直方图改进的GrabCut算法。在保留GrabCut第一次分割结果的基础上,通过非归一化直方图计算像素点属于前景或背景的方法来代替高斯混合模型迭代学习的过程;在构图过程中引入一类新的节点Bin进行构图以提高分割精度。选取MSRA1000数据集中部分图片进行实验验证,结果表明该算法在分割效果和效率上都有明显的提升,在进行背景复杂图像的分割时改进算法优势更加明显。  相似文献   

19.
图像分割是图像分析及图像理解的关键步骤。与其他图像分割算法相比,均值漂移(Mean Shift)算法具有原理简单、无需先验知识、可以处理灰度图像及复杂的自然彩色图像等优点。但该算法需要对图像中每个像素点进行迭代计算,因此分割所需要的时间较长。本文提出了一种快速Mean Shift图像分割算法(Fast mean shift,FMS),将少量像素点作为初始点进行迭代计算,而出现在高维球区域内的其他像素点根据其到已有类中心的距离进行归类,从而减少Mean Shift算法的迭代次数,缩短分割时间。实验结果表明,本文提出的快速Mean Shift图像分割算法可以获得良好的分割结果且具有较高的分割效率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号