首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
针对古代汉字文档的特点,提出了适合于古文档的列切分方法和字切分方法。提出的列切分方法直接对文档的笔画投影进行分析,采用一种基于分层投影过滤和变长间隙阈值的递归切分算法。该算法在列间隔较小、列与格线存在粘连、文档具有一定程度的倾斜的情况下,也能准确地抽取出列,尤其对短列的切分达到了较好的效果。提出的字切分方法分为两步,进行粗切分确定大致的切分位置,采用基于连通域分析与粘连点判断的方法做进一步的细切分。该算法对具有较多粘连和重叠汉字的列,也能较好地切分出完整的单字。实验结果表明,提出的方法用于古代汉字文档切分能够获得较好的效果。  相似文献   

2.
一种视频中字符的集成型切分与识别算法   总被引:3,自引:0,他引:3  
杨武夷  张树武 《自动化学报》2010,36(10):1468-1476
视频文本行图像识别的技术难点主要来源于两个方面: 1)粘连字符的切分与识别问题; 2)复杂背景中字符的切分与识别问题. 为了能够同时切分和识别这两种情况中的字符, 提出了一种集成型的字符切分与识别算法. 该集成型算法首先对文本行图像二值化, 基于二值化的文本行图像的水平投影估计文本行高度. 其次根据字符笔划粘连的程度, 基于图像分析或字符识别对二值图像中的宽连通域进行切分. 然后基于字符识别组合连通域得到候选识别结果, 最后根据候选识别结果构造词图, 基于语言模型从词图中选出字符识别结果. 实验表明该集成型算法大大降低了粘连字符及复杂背景中字符的识别错误率.  相似文献   

3.
刘阳兴 《计算机应用研究》2011,28(10):3998-4000
针对粘连和搭接字符切分算法的不足,提出一种基于折线切分路径的字符切分算法。该算法利用投影法将粘连搭接字符与非粘连搭接字符分离开,而后结合粘连搭接字符独有的外形特征,通过引入惩罚权重的路径搜索算法快速而准确地得到粘连搭接字符间的折线切分路径;为了避免一些字符在以上的切分过程中被误切碎,利用识别反馈信息对一些字符子图像进行合并。实验结果表明,该算法对印刷体日英混排字符切分有很强的适应性,取得了较理想的切分效果。  相似文献   

4.
基于连通域的汉字切分技术研究   总被引:3,自引:0,他引:3  
字符切分技术已经成为汉字识别系统设计中的关键问题,对于质量较差的文本图像,用灰度图像取代传统的二值化黑白图像能够取得更好的切分效果,基于连通域的切分算法能够对灰度图像进行较好的切分,基于连通域的汉字切分算法能有效地对文本图像中汉字字符部件进行合并及对粘连字符进行分割。  相似文献   

5.
一种用于脱机手写体女书字符切分的方法*   总被引:1,自引:0,他引:1  
针对目前国内文字切分主要应用于汉字、英文等,而对于濒危少数民族文字缺乏较为实用的切分工具的问题,提出了一种用于脱机手写体女书字符的切分方法。该方法结合投影法和连通域进行粗切分,对交叉字符采用曲线切分,对粘连字符采用改进的滴水算法切分,经实验证明该方法能够取得较好的切分效果。该方法为女书字符切分提供了新思路。  相似文献   

6.
哈萨克斯拉夫图像文本经过行切分和列切分后,存在水平方向接触和垂直方向重叠的粘连字符。为提高字符识别率,依据字符连通域的最小外接矩形切分开垂直方向重叠的粘连字符图像块;利用判决条件:字符宽度概率密度分布图、字符图像块垂直投影的波峰数目和字符图像块垂直投影波峰的对称性,分离初始粘连字符图像块中正确的单个字符图像块和实际接触的粘连字符图像块;在允许的字符宽度范围内,寻找粘连字符图像垂直投影图的极小值点,以切分实际接触的粘连字符。实验结果表明,该方法泛化能力较好且识别率有明显提高。  相似文献   

7.
多知识综合判决的字符切分算法   总被引:3,自引:0,他引:3  
高性能的印刷体文字识别系统中,在单字识别技术比较成熟的条件下,字符切分成为比较关键的环节。字符切分可以看作是对字符边界正确切分位置的一个决策过程,该决策需要同时考虑字符局部的识别情况和全局的上下文关系。该文通过对中日韩三国文字字符切分的研究,提出一种基于多知识综合判决的字符切分算法。该算法成功应用于AsiaOCR项目,对于东方文字中常见的混排英文问题也能很好处理。实验结果表明,和以前的算法相比,新算法在中日韩三国文字识别系统中的切分错误率平均下降50%。  相似文献   

8.
灰度图像中字符切分方法的研究   总被引:5,自引:1,他引:5  
字符切分目前已经成为限制OCR技术发展的瓶颈,对于图像质量较差、中英文混排和背景色变化的文本图像,传统切分方法造成的切分错误使得文字识别率大大降低。针对这些问题,本文提出了新型文字切分方法。该方法先将灰度图像的灰度值进行分级处理,再根据分级连通域的概念把整个图像构造成树状结构,然后确定主层次级别,根据一定的规则在部分节点上进行合并、分割等进一步处理,最后得到最优的切分结果。实验结果表明,该方法能够取得比常规切分方法更好的切分效果。  相似文献   

9.
一种离线手写体汉字切分的自适应算法   总被引:2,自引:0,他引:2  
目前用于字符切分的算法主要有基于灰度直方图投影、字符连通域算法等,但这些算法不适用于相邻粘连汉字的切分。论文针对粘连汉字的切分,以邮件信函地址为对象,提出了一种离线手写体汉字切分的自适应算法。其基本步骤为:首先,基于灰值投影将手写汉字地址粗分为几个字段;其次,用傅立叶变换判断这些字段是否为粘连字段;再次,用汉字的字高和字宽的比值大小判断非粘连字是单字还是单字的部首;最后,以伸缩框法对粘连字分割,并对过分的部首进行合并。此算法的优势在于根据每个人书写的不同习惯,确定不同的伸缩框对汉字进行分割。  相似文献   

10.
高性能的多体印刷英文识别系统的实现   总被引:3,自引:0,他引:3  
提高低质量文本图像的识别率是现今文字识别研究的重要方向。文章对倾斜文本行的切分算法,断裂、粘连、交叠字符的切分算法以及后处理作了较为深入的研究,提出一些新的算法。该系统能够识别多达260种字体,包括黑体、斜体等字体,对训练集的识别率达到98.5%,并在实际应用中取得了良好效果。  相似文献   

11.
康厚良  杨玉婷 《图学学报》2022,43(5):865-874
以卷积神经网络(CNN)为代表的深度学习技术在图像分类和识别领域表现出了非常优异的性能。但东巴象形文字未有标准、公开的数据集,无法借鉴或使用已有的深度学习算法。为了快速建立权威、有效的东巴文字库,分析已出版东巴文档的版面结构,从文档中提取文本行、东巴字成为了当前的首要任务。因此,结合东巴象形文字文档图像的结构特点,给出了东巴文档图像的文本行自动分割算法。首先利用基于密度和距离的k-均值聚类算法确定了文本行的分类数量和分类标准;然后,通过文字块的二次处理矫正了分割中的错误结果,提高了算法的准确率。在充分利用东巴字文档结构特征的同时,保留了机器学习模型客观、无主观经验影响的优势。通过实验表明,该算法可用于东巴文档图像、脱机手写汉字、东巴经的文本行分割,以及文本行中东巴字和汉字的分割,具有实现简单、准确性高、适应性强的特点,从而为东巴文字库的建立奠定基础。  相似文献   

12.
针对古籍古文献中部分汉字易发生粘连现象,提出一种古籍手写汉字多步分割方法.该方法继承了以往粗分割和细分割相结合的思想,首先采用投影进行粗分割,将手写汉字分为粘连字符和非粘连字符两类;然后针对粘连字符串抛弃常用的串行模式,直接采用粗分割的统计信息,设置初始分割路径,并基于最短分割路径的思想,在初始分割路径的局部邻域内基于最小权值搜索并修改分割路径,从而获得最佳的加权分割路径.实验证明该方法解决了字符分割不足和多处粘连字符的分割问题,有效的提高了分割的准确率,且算法的时间复杂度较低,算法效率较高.  相似文献   

13.
This paper presents an effective automated analysis system for mixed documents consisting of handwritten texts and graphic images. In the preprocessing step, an input image is binarized, then graphic regions are separated from text parts using chain codes of connected components. In the character recognition step, we recognize two different sets of handwritten characters: Korean and alphanumeric characters. Considering the structural complexity and variations of Korean characters, we separate them based on partial recognition results of vowels and extract primitive phonemes using a branch and bound algorithm based on dynamic programming (DP) matching. Finally, to validate recognition results, a dictionary and knowledge are employed. Computer simulation with 50 test documents shows that the proposed algorithm analyzes effectively mixed documents.  相似文献   

14.
In this paper, we present a segmentation methodology of handwritten documents in their distinct entities, namely, text lines and words. Text line segmentation is achieved by applying Hough transform on a subset of the document image connected components. A post-processing step includes the correction of possible false alarms, the detection of text lines that Hough transform failed to create and finally the efficient separation of vertically connected characters using a novel method based on skeletonization. Word segmentation is addressed as a two class problem. The distances between adjacent overlapped components in a text line are calculated using the combination of two distance metrics and each of them is categorized either as an inter- or an intra-word distance in a Gaussian mixture modeling framework. The performance of the proposed methodology is based on a consistent and concrete evaluation methodology that uses suitable performance measures in order to compare the text line segmentation and word segmentation results against the corresponding ground truth annotation. The efficiency of the proposed methodology is demonstrated by experimentation conducted on two different datasets: (a) on the test set of the ICDAR2007 handwriting segmentation competition and (b) on a set of historical handwritten documents.  相似文献   

15.
In this paper, we strive towards the development of efficient techniques in order to segment document pages resulting from the digitization of historical machine-printed sources. This kind of documents often suffer from low quality and local skew, several degradations due to the old printing matrix quality or ink diffusion, and exhibit complex and dense layout. To face these problems, we introduce the following innovative aspects: (i) use of a novel Adaptive Run Length Smoothing Algorithm (ARLSA) in order to face the problem of complex and dense document layout, (ii) detection of noisy areas and punctuation marks that are usual in historical machine-printed documents, (iii) detection of possible obstacles formed from background areas in order to separate neighboring text columns or text lines, and (iv) use of skeleton segmentation paths in order to isolate possible connected characters. Comparative experiments using several historical machine-printed documents prove the efficiency of the proposed technique.  相似文献   

16.
针对以往车牌字符分割算法在复杂情况下分割准确率低的问题,提出了一种基于新邻域模板的连通域算法的车牌字符分割算法。采用基于新模板的连通域算法粗分割字符;通过自适应阈值投影法进行字符细分割;同时使用区域合并算法保证字符的完整性。实验结果表明,该算法将连通域法与投影法有效结合,能够同时解决汉字不连通、字符粘连和边框粘连等复杂情况,该算法对车牌字符进行分割正确率达99.5%。  相似文献   

17.
在字符识别领域,对粘连字符的识别是一个被广泛关注的技术难点,而且粘连字符的分割更是产生识别错误的主要原因之一.为了快速准确地进行字符分割,在总结已有方法的特点及不足的基础上,针对电子阅读笔系统的工作特点和实时性要求,提出并实现了一种面向电子阅读笔系统的基于词片识别的分割算法.该方法由于通过对字母组合的识别,降低了传统的基于孤立字符识别方法对于字符切分的要求,而且以中心生长法和改进的峰谷函数为切分工具来进行字符分割,简单实用,因而其在减少因粘连字符切分错误引起的识别错误的同时,不仅降低了运算复杂度,而且适合在阅读笔等嵌入式设备上应用.实验证明,该算法不仅效率高,而且实现简单,还能够降低分割错误带来的识别错误.  相似文献   

18.
针对彩色印刷图像背景色彩丰富和汉字存在多个连通分量,连通域文字分割算法不能精确提取文字,提出基于汉字连通分量的彩色印刷图像版面分割方法。利用金字塔变换逆半调算法对图像进行预处理,通过颜色采样和均值偏移分割图像颜色,标记文字连通分量,根据汉字结构和连通分量特性重建汉字连通分量,分析文字连通分量连接关系确定文字排列方向实现文字分割。实验结果表明,该方法能够有效地重建汉字连通分量,在彩色印刷图像中实现对不同字体、字号、颜色的文字分割。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号