首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
牛肉眼肌图像的分割是牛肉自动分级的重要步骤。基于水平集的C-V模型采用两个具有不同均值的分块连续区域分割图像,在迭代过程中,为了约束水平集保持为符号距离函数,必须对其进行重新初始化,大大增加了计算量,降低了曲线演化速度。为此,通过加入边缘检测函数和惩罚项因子,提出了改进的C-V水平集模型,并用于牛肉图像分割,同时与模糊C均值聚类、阈值分割法进行了对比。结果表明:采用改进的C-V模型对牛肉图像进行分割,准确提取了眼肌边缘,分割出了脂肪和肌肉区域,准确率高;曲线演化过程中无需对水平集函数符号初始化,加快了曲线演化速度。  相似文献   

2.
针对炉膛火焰灰度变化不明显采用传统的分割算法无法达到满意分割效果的问题,采用了基于边缘流的分割方法对电厂炉膛火焰图像进行分割;首先选用高精度的灰度边缘流对图像进行分割,得到边缘流的矢量方向和边缘能量,然后再对图像闭合处理得到初始分割图像;最后,再利用颜色相似度对相邻区域进行处理,得到最终分割图像,该方法不仅避免了单纯边缘流算法提取边界不连续无法检出较弱边界的问题,而且也可以避免过分割问题;通过实验表明,基于边缘流的方法是对炉膛火焰图像进行分割的有效方法。  相似文献   

3.
提出了基于水平集和迭代自组织数据分析的岩心砾石图像分割方法,既可克服水平集算法伴生的图像过分割问题,也可解决迭代自组织算法产生的图像边缘飘移问题。该方法首先运用水平集算法获取目标颗粒的准确边界,运用迭代自组织算法提取目标颗粒的整体;其次将两种方法提取的图像给以迭加综合处理,克服水平集算法伴生的图像过分割和迭代自组织算法产生的边缘飘移的缺陷,进而得到既完整又边界准确的目标颗粒。该方法运用于岩心砾石图像的分割,取得了良好的效果。  相似文献   

4.
砾石图像的复杂多样使得每颗完整的砾石往往具有非均匀多彩色的性质,用一般的分割方法很难准确检测出砾石边缘。该文提出用高精度的边缘流和水平集分割方法提取图像中所有强弱边缘,用一种基于彩色梯度和邻域均值方差相结合的方法去除大砾石内的虚假边缘,使每个颗粒边缘尽量完整。实验证明该算法效果良好,便于后续处理。  相似文献   

5.
介绍了一种基于元胞自动机各向异性扩散模型的图像分割算法.在扩散模型基础上,引入跨膜介质,构建各向异性扩散模型;然后模拟热扩散方程的活动轮廓模,建立热量场,通过 LBADM 模型对图像进行分割获得目标分割边缘.实验结果表明,该算法模型能够取得闭合的分割曲线,同样能够很好的处理图像拓扑结构的变化.通过与水平集方法和窄带水平集方法进行计算速度实验对比,表明该算法能够大大减少了分割的计算量.  相似文献   

6.
针对噪声图像,基于曲线演化理论与水平集方法,提出一个对噪声鲁棒的水平集分割模型。利用图像局部和全局信息,构造一个新的速度函数,得到一个水平集演化偏微分方程。实验表明,该模型对含有高噪声的合成和真实图像有很好的分割效果,同时能准确提取弱边缘和模糊边缘,而且对轮廓初始化有很强的鲁棒性。  相似文献   

7.
参数化形态学梯度修正的水平集肝肿瘤分割   总被引:1,自引:0,他引:1  
针对单一水平集算法处理低对比度或边缘模糊肝脏CT图像时,在梯度局部极小值区域或虚假边缘处常常会出现曲线停止演化现象的问题,提出了一种参数化形态学梯度修正的水平集图像分割方法进行研究.首先对图像进行形态学梯度变换,增强图像的对比度;然后以此为基础,在特定邻域内建立结构元素半径与梯度级的函数关系对图像进行梯度修正,增强目标边缘聚合度并去除图像噪声及非规则细节引起的局部极小值,同时减小目标轮廓位置的偏移;最后根据图像梯度信息运用水平集方法实现图像中单个或多个目标分割.实验结果表明,该算法有效地解决了标准水平集分割方法中存在的伪分割问题,能够对肝脏肿瘤进行较准确分割.  相似文献   

8.
完全基于边缘信息的快速图像分割算法   总被引:2,自引:0,他引:2  
为快速准确地进行图像分割和对象提取,达到图像实时处理的要求,提出一种完全基于边缘信息、具有良好并行计算特性的图像分割和对象提取算法.首先对经典Canny算子边缘检测进行改进、引入了断点检测和递归可控的低阈值边缘追踪算法,得到图像的原始二值边缘图;然后采用基于断点的边缘连接算法得到待提取对象的完整闭合边缘;最后提出四向扫描区域填充算法从边缘图中完整地提取出有意义的对象.实验结果表明,文中算法不仅可以准确地处理图像中的各类复杂边缘、获得良好的图像分割效果,同时具有优秀的并行计算特性,可以以并行方式、基于GPU实现完全实时的图像处理.  相似文献   

9.
在现实世界经常有一些灰度不均匀的图像给图像分割造成了很大的困难.为了解决由于图像灰度不均匀造成的图像轮廓提取的困难,结合邻域算法和高斯滤波的性质的基础上,提出了基于图像局部区域灰度信息的算法,使曲线的演化过程基于图像的局部信息.同时采用了水平集演化规则化模型,避免了水平集函数的不断初始化.实验结果表明,新算法无论对合成图像还是真实图像,都能提取出准确的物体轮廓.  相似文献   

10.
研究图像边缘准确检测的问题.传统的像素阈值分割算法虽然考虑了图像的空间信息,但是由于解空间维数增加,搜索范围增大,导致计算时间延长,求解最优阈值的速度较低,同时传统二维熵的计算中只考虑了像素的概率,忽略了灰度的概率,导致分割不准确.为了避免上述缺陷,提出了一种基于细胞膜优化的图像边缘检测算法.利用图像内部像素差值方法,提取目标图像的边缘特征,为图像的边缘检测提供准确的数据基础.利用细胞膜优化方法,计算边缘最优边界像素点,从而实现图像的边缘检测.实验结果表明,利用上述算法能够有效提高图像边缘检测的准确性.  相似文献   

11.
The Segmentation According to Natural Examples (SANE) algorithm learns to segment objects in static images from video training data. SANE uses background subtraction to find the segmentation of moving objects in videos. This provides object segmentation information for each video frame. The collection of frames and segmentations forms a training set that SANE uses to learn the image and shape properties of the observed motion boundaries. When presented with new static images, the trained model infers segmentations similar to the observed motion segmentations. SANE is a general method for learning environment-specific segmentation models. Because it can automatically generate training data from video, it can adapt to a new environment and new objects with relative ease, an advantage over untrained segmentation methods or those that require human-labeled training data. By using the local shape information in the training data, it outperforms a trained local boundary detector. Its performance is competitive with a trained top-down segmentation algorithm that uses global shape. The shape information it learns from one class of objects can assist the segmentation of other classes.  相似文献   

12.
广播语音的音频分割   总被引:1,自引:2,他引:1  
本文的广播电视新闻的分割系统分为三部分:分割、分类和聚类。分割部分是采用本文提出的基于检测熵变化趋势的分割算法来检测连续语音音频信号的声学特征跳变点,从而实现不同性质的音频信号的分割。这种检测方法不同于传统的需要门限的跳变点检测方法,它是以检测一定窗长的信号内部的每一个可能的分割点所分割的两段信号的信号熵的变化趋势来检测音频信号声学特征跳变点的,可以避免由于门限的选择不当所带来的分割错误。分类部分是采用传统的基于高斯混合模型(GMM)的高斯分类器进行分类,聚类部分采用基于矢量量化(VQ)的说话人聚类算法进行说话人聚类。应用此系统分割三段30分钟的新闻,成功的实现了连续音频信号的分割,去除掉了所有的背景音乐,以较高的精度把属于同一个人的说话语音划归为一类,为广播语音的分类识别打下了良好的基础。  相似文献   

13.
当前通过图像处理的方法来进行瞳孔分割,导致鲁棒性不高、分割精度低以及运算量大无法满足实时性要求的问题,为此提出一种基于深度学习的人眼瞳孔精确分割方法。该方法采用基于ADEU-Net的快速人眼语义分割网络来获取瞳孔区域,实现对瞳孔的精准分割;该网络创新性地提出膨胀卷积与普通卷积双线并行的方式,在扩大感受野的同时可提升局部精细化能力,并且引入了注意力机制,以充分提取语义特征。实验结果表明,该瞳孔分割方法通过端到端学习,PA相对于U-Net、传统图像处理算法分别提高了5、35个百分点;均交并比MIoU达到94%,明显高于U-Net、传统图像处理算法90%和57%,同时保证了83 frame/s的高分割速度。  相似文献   

14.
We cast the problem of multiframe stereo reconstruction of a smooth shape as the global region segmentation of a collection of images of the scene. Dually, the problem of segmenting multiple calibrated images of an object becomes that of estimating the solid shape that gives rise to such images. We assume that the radiance of the scene results in piecewise homogeneous image statistics. This simplifying assumption covers Lambertian scenes with constant albedo as well as fine homogeneous textures, which are known challenges to stereo algorithms based on local correspondence. We pose the segmentation problem within a variational framework, and use fast level set methods to find the optimal solution numerically. Our algorithm does not work in the presence of strong photometric features, where traditional reconstruction algorithms do. It enjoys significant robustness to noise under the assumptions it is designed for.  相似文献   

15.
基于反序词典的中文分词技术研究   总被引:2,自引:1,他引:1  
中文自动分词是计算机中文信息处理中的难题.在对中文分词的现有技术研究的基础上,对反序最大匹配分词方法进行了较深入的研究探讨,在此基础上对中文分词的词典结构和分词算法做了一部分改进,设计了基于反序词典的中文分词系统.实验表明,该改进算法加快了中文的分词速度,使得中文分词系统的效率有了显著提高.  相似文献   

16.
基于区域的活动轮廓模型——无边活动轮廓模型(常称CV模型),通常采用水平集方法解决分片常值灰度图像,具有计算复杂度低、分割结果对初始轮廓位置不敏感等优点。但是,存在迭代次数高、迭代时间长等缺点。基于此,笔者提出了一种基于偏微分方程的新模型。实验表明,该模型具有迭代过程稳定、迭代次数低等优点,且无需初始轮廓即可快速分割分片常值灰度图像。  相似文献   

17.
在无人驾驶应用场景中,现有无锚框实例分割方法存在大目标特征覆盖小目标特征、缺少两阶段检测器中的感兴趣区域对齐操作、忽略类别分支对掩膜分支提供的位置和空间信息等问题,导致特征提取不充分且无法准确获取目标区域。提出一种改进的无锚框实例分割方法。结合可变形卷积,设计编码-解码特征提取网络提取高分辨率特征,以增强对小目标特征的提取能力,并采用空洞卷积和合并连接的方式,在不增加计算量的前提下有效融合多种分辨率的特征。在此基础上,将注意力机制引入到类别分支中,同时设计结合空间信息和通道信息的信息增强模块,以提高目标检测能力。实验结果表明,该方法在COCO 2017和Cityscapes数据集上平均精度和平均交并比分别为41.1%和83.3%,相比Mask R-CNN、SOLO、Yolact等方法,能够有效改进实例分割效果并具有较优的鲁棒性。  相似文献   

18.
中文自动分词是计算机中文信息处理中的难题。在对中文分词的现有技术研究的基础上,对反序最大匹配分词方法进行了较深入的研究探讨,在此基础上对中文分词的词典结构和分词算法做了一部分改进,设计了基于反序词典的中文分词系统。实验表明,该改进算法加快了中文的分词速度,使得中文分词系统的效率有了显著提高。  相似文献   

19.
结合聚类与改进分水岭算法的彩色图像分割   总被引:1,自引:1,他引:0  
针对传统分水岭算法产生严重的过分割问题,提出了一种聚类和改进分水岭算法结合的彩色图像分割算法.该算法首先利用聚类算法在HSV颜色空间将特征相似的像素归为一类,然后对分水岭算法产生的分割区域进行种子区域生长,并利用区域合并将剩余的小区域进行合并,从而完成了对彩色图像的分割.实验证明该算法减少了分水岭算法的过分割现象,提高...  相似文献   

20.
This paper proposes a method for refining existing mesh segmentations, employing a novel extension of the active contour approach to meshes. Given a segmentation, produced either by an automatic segmentation method or interactively, our algorithm propagates the segment boundaries to more appropriate locations. In addition, unlike most segmentation algorithms, our method allows the boundaries to pass through the mesh faces, resulting in smoother curves, particularly visible on coarse meshes. The method is also capable of changing the number of segments, by enabling splitting and merging of boundary curves during the process. Finally, by changing the propagation rules, it is possible to segment the mesh by a variety of criteria, for instance geometric‐meaningful segmentations, texture‐based segmentations, or constriction‐based segmentations.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号