首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
2.
超像素分割算法研究综述   总被引:10,自引:1,他引:10  
超像素能够捕获图像冗余信息, 降低后续处理任务复杂度, 已受到了国内外研究者的日益关注。首先分析了超像素分割领域的发展现状, 以基于图论的方法和基于梯度下降的方法为视角, 对现有超像素分割方法进行归纳和论述。在此基础上, 就目前常用的超像素分割算法进行了实验对比, 分析各自的优势和不足。最后, 对超像素分割技术的最新应用进行了介绍和展望。  相似文献   

3.
4.
交互式图像分割通过先验信息指导获取图像中人们感兴趣的部分,但是现有算法无法在效率和精度上实现平衡。为了解决此问题,提出了一种基于超像素和随机游走的快速交互式分割算法(random walk on superpixel, SPRW)。首先,将图像预分割为具有局部相似性的超像素区域,使用像素颜色均值对超像素区域表示;其次,根据人工标记的先验信息建立F-B图结构,扩展随机游走的范围,并使用随机游走的方法求解,获得硬分割结果;最后,针对分割结果的边界不光滑问题,提出改进的抠图算法(fast robust matting, FRB)进行二次处理,得到软分割结果。在BSD500和MSRC数据集上的实验证实,所提出的硬分割方法与其他算法在时间和平均交并比等指标上有较大优势;在Alpha Matting数据集上的实验充分证实所提出的软算法在提高效率的同时精度也有一定的提升;此外,在生活照更换背景的实验上展现了该算法的应用价值。  相似文献   

5.
针对简单线性迭代聚类(Simple Linear Iterative Clustering, SLIC)算法对不同图像自适应性差的问题,提出了一种基于皮尔森相关系数的自适应SLIC超像素图像分割算法。首先,通过量化非间隔进行图像预处理,并计算颜色熵作为图像复杂度,从而确定所需分割的超像素个数。其次,利用皮尔森相关系数作为相似性度量函数。最后,通过纹理特征对类内异常点进行滤除,确保种子点更新的准确性。实验结果表明,在超像素个数相同的情况下,基于皮尔森相关系数的自适应SLIC超像素图像分割算法相比主流超像素分割算法,可以获得更高的边缘命中率以及更低的欠分割率,性能优于LSC(Linear Spectral Clustering)、SLIC和SLIC0(Simple Linear Iterative Clustering Zero)算法。  相似文献   

6.
《软件》2019,(6):44-48
本文提出了一种使用具有噪声的基于密度的聚类方法进行超像素聚类来提高图像分割准确性的方法,首先以较低计算成本得到超像素分割,然后我们再利用密度聚类的原理将相关联的超像素聚集到一起,利用超像素对图像边缘信息的准确分割,来提高图像分割的准确性。我们在构建图形时使用局部邻域将算法应用于分割中,并利用DBSCAN既可以适用于凸样本集,也可以适用于非凸样本集的特性对超像素进行聚类分析。将所有各组紧密相连的样本划为各个不同的类别,则我们就得到了最终的所有聚类类别结果。该方法的一个重要特征是其能够在像素点密度大过某个阈值时,保留图像区域中的细节。  相似文献   

7.
基于超像素的快速MRF红外行人图像分割算法   总被引:1,自引:0,他引:1  
针对红外图像中行人目标分割时容易受环境干扰的问题,提出一种基于马尔可夫随机场的红外行人分割方法.为了解决计算最优解时优化算法收敛速度慢的问题,采用simple linear iterative clustering算法将红外图像预分割为超像素块.以像素块作为马尔可夫随机场的分割单位.像素块的颜色信息由该像素块内所有像素的平均灰度值表示.根据马尔可夫随机场与图像信息之间的关系计算图像的局部先验空间结构信息,采用ICM计算后验能量函数的最小化解.实验结果表明,改进分割算法较好的抑制了小的噪声点,获得了比较理想的分割结果,对于360 × 240的红外图像,采用超像素对图像进行预分割可以将分割速度提高10倍以上.  相似文献   

8.
针对简单线性聚类算法(SLIC)中需要初始预设超像素个数和大量重复聚类计算的问题,提出一种基于边缘信息的RGB-D图像超像素分割算法。利用各向异性高斯核提取彩色图像中边缘强度信息,在此之上,自适应地提取图像的初始聚类中心。仅对位于图像边缘附近的像素点进行重新聚类标记计算,这种策略在保证聚类准确的同时,大大降低了重新聚类计算的复杂度。同时,本文提出一种基于边缘信息的距离度量准则来度量两个像素点之间的空间距离。在公开的图像数据集上的实验结果表明,相比其他几种算法,本文算法的分割结果更能反应出场景中物体的轮廓信息,而且算法效率更高。  相似文献   

9.
黄睿  徐斌 《计算机与数字工程》2023,(10):2431-2437+2469
现有的超像素算法对所有像素采用相同的分割约束,导致超像素在边界粘附性和紧凑性之间产生多余的相互抑制。此外现有算法很少与深度网络结合使用。文中提出了一种内容自适应超像素分割网络,可以根据图片内容动态分配紧密度因子,使超像素在边界周围具有高边界粘附性,在其余区域具有高紧凑性。通过与其他复杂方法的比较试验,该方法有效地减少了边界粘附和紧凑性之间的折衷,同时产生了具有良好性能的超像素。  相似文献   

10.
孙焘  陈康睿 《计算机科学》2016,43(2):302-306
视频图像分割是图像处理领域的一个热门问题。在传统分割算法的基础上,提出了一种新的无监督的视频分割算法。该算法采用超像素对运动前景进行表示,定义联接权概念来描述超像素属于同一物体的可能性,并利用当前帧的静态特征与前后帧的关联特征进行联接权计算。为优化超像素间匹配关系的搜索,算法引入了超像素颜色特征匹配约束与运动关联性匹配约束的机制。分别在简单场景和复杂场景进行了视频分割实验,简单场景下,算法保证了较高的召回率与稳定的准确率;复杂场景下,算法完成了人群中单个人的切分。大量实验结果表明,该算法能够实现视频图像的分割,并且能有效解决过分割问题。  相似文献   

11.
随着互联网的飞速发展,需要处理的数据量不断增加,在互联网数据挖掘领域中传统的单机文本聚类算法无法满足海量数据处理的要求,针对在单机情况下,传统LDA算法无法分析处理大规模语料集的问题,提出基于MapReduce计算框架,采用Gibbs抽样方法的并行化LDA主题模型的建立方法。利用分布式计算框架MapReduce研究了LDA主题模型的并行化实现,并且考察了该并行计算程序的计算性能。通过对Hadoop并行计算与单机计算进行实验对比,发现该方法在处理大规模语料时,能够较大地提升算法的运行速度,并且随着集群节点数的增加,在加速比方面也有较好的表现。基于Hadoop平台并行化地实现LDA算法具有可行性,解决了单机无法分析大规模语料集中潜藏主题信息的问题。  相似文献   

12.
张燕  高鑫  刘以  张小峰  张彩明 《图学学报》2022,43(2):205-213
图像分割是计算机视觉中的研究热点和难点.基于局部信息的模糊聚类算法(FLICM)在一定程度上提升了模糊聚类算法的鲁棒性,但噪声强度较大时无法获得较好的图像分割效果.针对传统的模糊聚类算法分割精度不佳等问题,提出了改进像素相关性模型的图像分割算法.首先通过分析像素的局部统计特征,设计了一种新型的像素相关性模型,在此基础上...  相似文献   

13.
为提高旋转图像的质量和性能,提出了一种亚像素圆模板算法。在假设图像是连续的前提下进行逆向旋转变换;通过像素网格状分割选取亚像素圆模板的圆心;用亚像素圆模板(直径等于像素边长)进行离散化。邻域像素被圆模板覆盖的面积与圆面积的比值Rs,相应像素的颜色值Cs,旋转后像素的颜色值等于Rs和Cs的卷积。实验表明该算法图像旋转效果好于最近邻点插值和高斯模板算法,连续性接近双线性插值,计算性能明显高于双线性插值和高斯模板。  相似文献   

14.
为了解决多主体图像分割的交互分割问题,提出了一种基于SLIC超像素的自适应图像分割算法。首先利用SLIC对图像进行超像素分割处理,把原图像分割为大小相似、形状规则的超像素,以超像素中心点的五维特征值作为原始数据点通过自适应参数的DBSCAN算法聚类,确定多主体数目和分割边界。算法不需要用户交互,自适应确定分割数目。为了验证算法的有效性,在伯克利大学标准数据集BSDS500上与人工标注的分割图像进行比较, 前期的超像素处理使算法在时间上有很好的提升,对于一幅481×321像素的图像,只需要1.5 s就可以获得结果。实验结果表明,该方法可以有效解决多主体图像分割中的人工交互问题,同时在PRI和VOI的指数对比上也优于传统算法,本文算法可以在保证分割效果的基础上自适应确定分割数目,提高分割效率。  相似文献   

15.
基于Hadoop MapReduce模型的应用研究   总被引:4,自引:0,他引:4  
MapReduce是一种简化并行计算的分布式编程模型,是Google的一项重要技术,通常被用于数据密集型的分布式并行计算.探讨了来自Apache开源的分布式计算平台Hadoop的核心设计MapReduce编程模型,并通过算法实验分析和研究了MapReduce模型的工作方式和应用方法.  相似文献   

16.
We propose an approach to image segmentation that views it as one of pixel classification using simple features defined over the local neighborhood. We use a support vector machine for pixel classification, making the approach automatically adaptable to a large number of image segmentation applications. Since our approach utilizes only local information for classification, both training and application of the image segmentor can be done on a distributed computing platform. This makes our approach scalable to larger images than the ones tested. This article describes the methodology in detail and tests it efficacy against 5 other comparable segmentation methods on 2 well‐known image segmentation databases. Hence, we present the results together with the analysis that support the following conclusions: (i) the approach is as effective, and often better than its studied competitors; (ii) the approach suffers from very little overfitting and hence generalizes well to unseen images; (iii) the trained image segmentation program can be run on a distributed computing environment, resulting in linear scalability characteristics. The overall message of this paper is that using a strong classifier with simple pixel‐centered features gives as good or better segmentation results than some sophisticated competitors and does so in a computationally scalable fashion.  相似文献   

17.
为解决传统数据挖掘算法在大量数据处理时面临的内存占用、计算性能等方面的问题,基于Hadoop平台,应用HBase文件存储系统对海量数据分布式存储以及Map Reduce框架进行分布式计算,实现Apriori经典数据挖掘算法。通过对已实现的Apriori算法进行优化,引入FIS-IS算法思想,从数据库扫描次数和容量消减方向进行改进。提出针对数据本身进行频繁预选项生成方法与对于频繁预选项剪枝步骤进行分组检索的优化方法。实验结果验证了改进算法对算法运行具有良好的优化效果。  相似文献   

18.
云计算集群中的资源存在异构和节点稳定性问题.异构资源的计算能力不同会导致较突出的作业任务同步问题,而某个节点的不稳定状态会使运行于该节点的任务大量备份或重新计算.针对上述两问题将严重影响集群作业的执行进度,在Hadoop平台下利用统计方法,提出一种资源调度算法,对计算资源较少的节点和不稳定状态的节点进行标志并降权,让集群尽可能调度资源较好的稳定节点.实验结果表明,该算法能够在一定程度上减少作业的周转时间,提高集群的效率和吞吐量.  相似文献   

19.
为了满足有截止时间限制的MapReduce作业的需求,提出一种基于截止时间限制的动态调度算法(DCDS)。该算法实时监控作业运行状况,并对作业运行时间进行动态估算,从而确定作业优先级;对于时间紧迫的作业,可通过抢占策略来保证在用户要求的截止时间内完成。实验结果表明,与Hadoop平台现有的调度算法相比,该算法不仅能满足作业截止时间的要求,也提高了系统资源的利用率和吞吐量。  相似文献   

20.
针对MapReduce模型中存在的多个Reduce任务之间完成时间差别较大的问题,分析了影响Reduce任务完成时间的因素,指出了MapReduce模型中Reduce任务节点存在数据倾斜问题,提出了一种改进型的MapReduce模型MBR(Map-Balance-Reduce)模型。通过添加Balance任务,对Map任务处理完成的中间数据进行均衡操作,使得分配到Reduce任务节点的数据比较均衡,从而确保Reduce任务的完成时间基本一致。仿真实验结果表明,经过Balance任务后,Map任务产生的中间数据能够比较均衡的分配给Reduce任务节点,达到数据计算均衡的目的,在一定程度上减少了整个作业的执行时间。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号