首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
一种新的完全欧氏距离变换算法   总被引:1,自引:0,他引:1  
论文提出了一种基于边界剥离的二维完全欧氏距离变换算法。该算法从物体目标的最外层边界开始,自外向内、逐层对物体目标区域进行边界跟踪、剥离。在跟踪过程中,根据当前边界像素点的已获得距离变换结果或为背景的邻域像素信息,计算其与最近背景像素间的欧氏距离,从而实现距离变换。和已有算法相比,文中算法具有简单快速、容易实现,得到的是完全欧氏距离的优点,在分离粘连物体的应用中,取得了良好分离效果。  相似文献   

2.
基于围线分层扫描的完全欧氏距离变换算法   总被引:1,自引:0,他引:1       下载免费PDF全文
围线扫描欧氏距离变换算法是一种快速的完全欧氏距离变换算法,其时间复杂度达到最优,但需在围线区域进行全局搜索,计算时间并未优化。针对此问题,提出了一种基 于围线分层扫描的完全欧氏距离算法。该算法首先根据中心像素的围线性质对二值图像像素点进行重新分类,然后按照围线区域像素与中心像素的空间关系,对中心像素的围线区 域进行分层搜索,并给出了搜索的终止条件。该算法保持了最优的时间复杂度,可通过定量分析单个像素的计算时间来证明其计算时间已得到优化。实验结果表明,该算法能够得到 准确的欧氏距离图像,且运行速度快。  相似文献   

3.
以肺部CT图像为研究对象,针对肺部粘连肿瘤图片本身的特点,提出了一种基于边缘跟踪的二维欧氏距离变换算法.从目标区域的最外层边界开始,自外向内对目标区域进行边缘跟踪、腐蚀,直到肿瘤区粘连部分与肺部边界分离.算法能够计算精确的欧氏距离.通过实验分割出的肿瘤和放射科医生手工勾画的肿瘤轮廓对比,5幅病例图像重叠率达到了75%左右,实验结果表明该方法对于中晚期肺部粘连肿瘤的分割有一定的效果.  相似文献   

4.
胃上皮肿瘤边界跟踪算法的实现   总被引:3,自引:0,他引:3  
提出了一种修正型的边界跟踪算法,该算法基于区域标号算法,并以外法线方向作为优先搜索方向来确定边界点,在边界跟踪过程中不但记录目标物体的边界点,而且还将校正像素点的归属区域。针对该算法,设计了一个2维链表的数据结构用来保存跟踪的边界点。  相似文献   

5.
基于围线扫描的快速完全欧氏距离变换算法   总被引:1,自引:0,他引:1       下载免费PDF全文
欧几里德距离变换(EDT)是为由黑白像素构成的二值图像中所有像素找到距离其最近的黑色像素,并计算它们之间的欧几里德距离,目前广泛地应用于图像分析和计算机视觉等领域.本文采用基于围线扫描的思想,提出了一个在二值图像中进行完全欧氏距离变换的算法.算法首先将二值图像中的像素进行分类,对那些本身既不是特征像素且其4-邻域内也没有特征像素的点作上标记,然后对这些标记的像素自内向外进行围线扫描,搜索与它最近的黑点并计算它们的欧氏距离.算法能够计算精确的欧氏距离.同时对算法的时间复杂度进行了简单的分析,并给出了程序实现中得到的一些实验数据,结果表明该算法运算速度快,时空需求在当前的硬件环境下令人满意,是一种有效的和有着巨大实际应用价值的距离变换算法.  相似文献   

6.
针对关节式目标变化对子空间描述造成的影响,本文提出了一种基于增量学习的关节式目标跟踪算法.该算法通过引入图像分割方法与快速傅里叶变换可有效消除背景像素对目标描述造成的影响以及目标区域前景目标位置对不准造成的误差,同时应用局部二值模式增加目标描述中像素点间的几何位置信息,应用基于增量学习的方法实现目标特征的在线更新,最终为跟踪算法提供较为精确的目标描述.实验结果表明,本文提出的关节式目标跟踪算法具有较好的目标跟踪效果.  相似文献   

7.
超像素分析指的是将数字图像细分为多个超像素的过程,旨在简化或改变图像的表示形式,使得图像更容易理解和分析。文章提出了一种基于测地距离的超像素分析算法,该算法采用引入代价函数的Fast Marching算法来计算像素点间的测地距离。将目标图像大致均匀地划分成k个初始长方形区域,在每个区域内选取局部密度最大的像素点作为种子点,再由种子点出发计算像素点间的测地距离,并根据测地距离对像素点进行标记,故而可以得到大小均衡,形状规整的超像素。该算法在计算测地距离时,充分考虑了像素点的颜色和位置特征,并且以小区域为单位计算测地距离不仅缩小了Fast Marching算法的搜索范围,加快了算法的运行速度,还可以使得某些像素点的测地距离被重复计算,便于选取最优值。该算法所得超像素的分割精度及规整度都取得了良好的效果。  相似文献   

8.
为了提高三维距离变换在实际应用中的计算效率,提出一种三维快速距离变换算法.首先将三维图像降维为多张二维图像,为每张二维图像设置2个标记数组,并根据标记数组运用围线扫描方法依次计算出每一像素在二维图像上的距离变换;然后依据二维结果计算出所有像素在三维图像中的距离变换.实验结果表明,文中算法实现简单,比已有的边界剥离算法及基于Voronoi图的算法在时间和空间消耗上均有较大的提高,有更好的实用性.  相似文献   

9.
针对基于Mean-Shift目标跟踪算法中遇到的不能对模板进行实时更新的问题,提出一个基于混合高斯背景建模的目标模板更新算法.该算法将目标视为背景,对目标中的每一个像素点利用三个高斯函数对它进行建模,利用每次Mean-Shift跟踪到的目标区域来对先前建立的混合高斯模型进行实时更新,将混合高斯模型得到的目标模板作为下一帧跟踪的目标模板.该算法较好地解决了基于Mean-Shift算法的模板更新问题,实验证明该算法是有效的.  相似文献   

10.
目的 双目测距对水面无人艇自主避障以及视觉侦察具有重要意义,但视觉传感器成像易受光照环境及运动模糊等因素的影响,基于经典Census变换的立体匹配代价计算方法耗时长,且视差获取精度差,影响测距精度。为了提高测距精度并保证算法运行速度,提出一种用于双目测距的快速立体匹配算法。方法 基于传统Census变换,提出一种新的比特串生成方法,在匹配点正方形支持窗口的各边等距各选3个像素点,共选出8个像素点,这8个像素点两两比较生成一个字节的比特串。将左右视场中的匹配点与待匹配点的比特串进行异或,得到两点的汉明距离,在各汉明距离中找到距离最小的像素点作为匹配像素点,两像素点的横坐标差为视差。本文采用区域视差计算的方法,在左右视场确定同一目标区域后进行视差提取和滤波,利用平均视差计算目标的距离。结果 本文算法与基于传统Census变换的立体匹配视差获取方法相比,在运算速度方面优势明显,时间稳定在0.4 s左右,用时仅为传统Census变换算法的1/5。在Middlebury数据集中的图像对teddy和cones上进行的算法运行时间对比实验中,本文基于Census变换改进的算法比已有的基于Census变换的匹配算法在运行时间上快了近20 s。在实际双目测距实验中,采用本文算法在1019 m范围内测距误差在5%以内,根据无人艇的运动特点和避障要求,通过分析可知该算法的测距精度可以满足低速无人艇的避障需求。结论 本文给出的基于改进Census变换的匹配算法在立体匹配速度上有大幅提高,提取目标视差用于测距,实际测距结果表明,本文算法能够满足水面无人艇的视觉避障要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号