首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
一种基于连通域的版面分割方法   总被引:4,自引:0,他引:4  
版面分割是版面分析的重要组成部分,是一个受到广泛关注的研究课题。该文提出了一种基于连通域的版面分割算法,首先对文档图像进行倾斜校正,然后采用模糊处理以得到较大的连通单元,再根据区域连通的特性进行版面分割和处理。实验表明,基于连通域的算法分割版面准确,速度快,适用范围广,不仅可用于矩形版面,对于非Manhattan版面等复杂版面也能取得令人满意的效果。  相似文献   

2.
基于多特征和SVM的文本图像版面分类方法   总被引:1,自引:0,他引:1  
对文本图像的灰度、形状和纹理等视觉特征进行了较为全面的分析,研究了版面中文本、表格、图形和图像在各种特征层面上的差异。针对中英文版面,结合投影法与连通域分析快速准确的分割图像,提取了能够表征区域信息的17维特征向量,然后使用基于正态决策树的多分类支持向量机将文本图像版面区域分为文本、表格、图形和图像四类。实验结果表明算法能够快速、准确地处理文本图像版面,具有较强的应用价值。  相似文献   

3.
本文设计了一种手写体汉字版面分析方案,它使用基于封闭曲线积分求解连通域的版面分割算法来提取版面图象连通域,然后按照汉字结构对得到的连通域进行组合以获取合理的汉字版面分析结果。本文使用该方案分析黄彰任草书版面,并给出了实验结果。  相似文献   

4.
针对传真图像,为了提高版面分割与分类准确率,提高处理速度,以连通区域为处理元素,通过合理设定阈值,将水平和垂直相邻连通区域进行合并,快速准确地分割图像。并且将版面分割过程与分类过程相结合,根据连通区域的大小建立矩阵,提取能够表征区域信息的八维特征,然后使用BP神经网络将版面区域分为文字区域和非文字区域两类。实验中得到版面分割准确率为89.2%,版面分类准确率为94.22%。实验结果证明,该算法能够快速准确地对传真图像进行分割和分类,具有较强的实用价值。  相似文献   

5.
基于最小生成树聚类的中文版面分割法   总被引:1,自引:1,他引:0       下载免费PDF全文
针对中文版面多横竖混排的特点,提出一种基于最小生成树聚类的版面分割方法。对原图像进行水平和垂直游程平滑,并对平滑后所得的连通域进行预分类处理,将文本进行横排、竖排分类。对预分类后的各类文本采用最小生成树聚类算法进行聚类处理。经实验,准确率达97%。实验表明,该方法对中文文档有良好的分割效果。  相似文献   

6.
针对文本图像中的文字难以提取分割的问题,文章提出了一种基于连通域的算法。算法通过连通域阀值分析,将文本块联通,继而将文字成功分割。实验结果表明本算法能快速准确地分割文字。  相似文献   

7.
对车牌图像的二值图进行连通域提取可以解决倾斜带来的问题.提出了一种基于快速连通域标记的字符分割方法.先用改进的Otsu法对车牌图像进行二值化分割,之后基于快速连通域标记算法进行连通域标记,最后对各个连通域进行后续处理提取出全部车牌字符连通域.实验表明,改进的快速连通域标记算法克服了倾斜问题,而且有效地提高了连通域提取的速度,获得较好的字符分割的鲁棒性和实时性.  相似文献   

8.
将一般图形Voronoi图应用于文档图像的分割,该方法是一种基于连通域的分割算法.首先将文档图像进行二值化处理,选择适当的结构元素对该二值化图像进行膨胀,然后把经过处理后的外部边缘作为一般图形Voronoi图的生成元,再根据离散生成法生成Voronoi图后与原图像进行并运算,从而完成最后的版面分割.该方法操作简单、有效,适用范围广,尤其对中文版的Manhattan版面有很好的效果.  相似文献   

9.
基于连通域的汉字切分技术研究   总被引:3,自引:0,他引:3  
字符切分技术已经成为汉字识别系统设计中的关键问题,对于质量较差的文本图像,用灰度图像取代传统的二值化黑白图像能够取得更好的切分效果,基于连通域的切分算法能够对灰度图像进行较好的切分,基于连通域的汉字切分算法能有效地对文本图像中汉字字符部件进行合并及对粘连字符进行分割。  相似文献   

10.
针对彩色印刷图像背景色彩丰富和汉字存在多个连通分量,连通域文字分割算法不能精确提取文字,提出基于汉字连通分量的彩色印刷图像版面分割方法。利用金字塔变换逆半调算法对图像进行预处理,通过颜色采样和均值偏移分割图像颜色,标记文字连通分量,根据汉字结构和连通分量特性重建汉字连通分量,分析文字连通分量连接关系确定文字排列方向实现文字分割。实验结果表明,该方法能够有效地重建汉字连通分量,在彩色印刷图像中实现对不同字体、字号、颜色的文字分割。  相似文献   

11.
针对脱机手写维吾尔文本行图像中单词切分问题,提出了FCM融合K-means的聚类算法。通过该算法得到单词内距离和单词间距离两种分类。以聚类结果为依据,对文字区域进行合并,得到切分点,再对切分点内的文字进行连通域标注,进行着色处理。以50幅不同的人书写的维吾尔脱机手写文本图像为实验对象,共有536行和4?002个单词,正确切分率达到80.68%。实验结果表明,该方法解决了手写维吾尔文在切分过程中,单词间距离不规律带来的切分困难的问题和一些单词间重叠的问题。同时实现了大篇幅手写文本图像的整体处理。  相似文献   

12.
韩明  李磊民  黄玉清 《计算机应用》2010,30(12):3278-3280
针对粘连或重叠颗粒图像的分割问题,提出了一种基于特征模糊推理的局部形态学重构参数计算方法,对传统的距离变换结合分水岭的算法进行了改进。在传统距离变换结合分水岭方法的基础上,将颗粒图像划分成若干连通区域,每个连通区域单独处理,使用形态学局部重构的方法抑制分水岭的过分割现象。通过对距离图像连通区域极大值进行统计分析,提取该连通区域的颗粒形态特征。将颗粒形态特征作为模糊输入,重构参数特征作为模糊输出,使用模糊推理方法自适应地计算重构参数,解决了重构参数选取的不确定性问题。最后对重构图像进行分水岭变换得到颗粒分割图像。实验结果表明,该方法对各种粘连状态的颗粒分割效果良好,克服了传统方法的过分割与参数自适应选择的问题。  相似文献   

13.
目的 为了在未知或无法建立图像模型的情况下,实现统计图像分割,提出一种结合Voronoi几何划分、K-S(Kolmogorov-Smirnov)统计以及M-H(Metropolis-Hastings)算法的图像分割方法.方法 首先利用Voronoi划分将图像域划分成不同的子区域,而每个子区域为待分割同质区域的一个组成部分,并利用K-S统计定义类属异质性势能函数,然后应用非约束吉布斯表达式构建概率分布函数,最后采用M-H算法进行采样,从而实现图像分割.结果 采用本文算法,分别对模拟图像、合成图像、真实光学和SAR图像进行分割实验,针对模拟图像和合成图像,分割结果精度均达到98%以上,取得较好的分割结果.结论 提出基于区域的图像分割算法,由于该算法中图像分割模型的建立无需原先假设同质区域内像素光谱测度的概率分布,因此提出算法具有广泛的适用性.为未知或无法建立图像模型的统计图像分割提供了一种新思路.  相似文献   

14.
为解决朝鲜语古籍数字化中朝汉文种混排字符切分困难的问题,提出一种朝鲜语古籍图像的文字切分算法。针对古籍列与列之间存在不连续间隔线、倾斜或者粘连等问题,提出一种基于连通域投影的列切分方法。利用连通域的删除、合并、拆分等操作对文字进行切分。使用一种多步切分法完成了具有文字大小不一,横向、纵向混合排版特点图像的字符切分工作。对于粘连字,采用改进的滴水算法进行有效切分。实验结果表明所提出的算法能够很好地完成朝、汉文种混排,文字大小不一,排版情况复杂的朝鲜语古籍图像的文字切分工作。该算法的列切分准确率为97.69%,字切分准确率为87.79%。  相似文献   

15.
Separating text lines in unconstrained handwritten documents remains a challenge because the handwritten text lines are often un-uniformly skewed and curved, and the space between lines is not obvious. In this paper, we propose a novel text line segmentation algorithm based on minimal spanning tree (MST) clustering with distance metric learning. Given a distance metric, the connected components (CCs) of document image are grouped into a tree structure, from which text lines are extracted by dynamically cutting the edges using a new hypervolume reduction criterion and a straightness measure. By learning the distance metric in supervised learning on a dataset of pairs of CCs, the proposed algorithm is made robust to handle various documents with multi-skewed and curved text lines. In experiments on a database with 803 unconstrained handwritten Chinese document images containing a total of 8,169 lines, the proposed algorithm achieved a correct rate 98.02% of line detection, and compared favorably to other competitive algorithms.  相似文献   

16.
许肖  顾磊 《计算机科学》2016,43(4):313-317
针对复杂背景下的文本检测问题,提出了显著性检测与中心分割算法相结合的文本检测技术。对于输入的图像,首先分别使用前景与背景作为标准的显著性检测方法,背景检测时将图像的四边分别作为基准,前景检测时将背景检测中得到的非背景区域作为基准,最终可得到较准确的备选文本区。然后使用中心分割算法,得到精确的边缘图。由于显著性图备选区域准确边缘细节缺失,而边缘图边缘精确但无法得出备选文本区,因此将两者进行融合处理,得到最终文本区域。实验表明,所提出的方法有较好的检测效果。  相似文献   

17.
针对现有图像分割算法聚类复杂以及分割精度不够高的问题,提出了基于几何距优化质心和粗糙模糊C-均值(RFCM)相结合的医学图像聚类分割算法。首先建立软集表示的像素集,并计算每个像素与质心之间的距离,然后基于像素和质心之间的最小距离,将像素分组到聚类中。为了将软集应用到粗糙模糊C-均值中,定义了一个模糊软集,进一步将输入图像转换为二值图像,通过计算连通区域的几何距选择适当的质心。最后利用这些新的质心计算更新像素的隶属度值,从而完成模糊聚类划分。在Allen Brain Atlas等三个医学数据库上评估了所提出混合算法的性能,获得的Jaccards系数和分割精度(SA)都优于几种对比算法。实验证明,提出的聚类分割算法具有良好的性能。  相似文献   

18.
提出一种结合空间聚类和边缘梯度信息的图像自动分割算法.在判断超像素颜色及纹理相似性的同时,进一步给出更加精确的分段边缘梯度计算方法,并采用测地距离来刻画超像素之间的相似性,使得分割结果更好地融合边缘不连续性与区域相似性.大量图像分割实验结果表明,该方法能更准确地找出分割边界,提高图像分割的准确性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号