首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   17篇
  免费   0篇
无线电   2篇
一般工业技术   2篇
自动化技术   13篇
  2018年   2篇
  2005年   1篇
  2004年   1篇
  2003年   2篇
  2002年   3篇
  2001年   2篇
  2000年   1篇
  1999年   2篇
  1998年   1篇
  1997年   1篇
  1990年   1篇
排序方式: 共有17条查询结果,搜索用时 15 毫秒
1.
本文提出了一种采用形态结构特征分割多位粘连手写体数字串的新方法。粘连数字串的预处理对平滑、线性化以及图象轮廓点的检测具有良好的作用。基于对数字串形态结构的分析,左边二位数字区域需要检测。本文法将多位数字串的分割变成几个二位数字的处理过程。当粘连区域仅存在一个数字时,该处理过程停止。我们采用来自美国国家科学技术研究所(NIST)数据库的图象样本对本文提出的方法进行了试验,结果证明,该方法是有效的。  相似文献   
2.
3.
迄今为止,手写体字符识别的研究已集中在单词和词组的识别上,词组通常由单词连接而成,其关键基元能增强单词识别器的作用。本文,我们对词组中的单词以及识别处理方式提出了一种优于间隔位置的分类法,它是一种新颖的方法。在处理方式上,单词分割检测适用于特殊的书写风格,参数取决于部件是否为“中间单词”间隔或“中间字符”间隔的特殊间隔关系的计算,而不必采用大量的训练装置。相反,它能调整间隔的分布,以代替词组图象的检验。文献中的方法是在不考虑词组中单词间隔对语义的影响下提出的,并与本文的方法作了比较。实验显示,识别率可改善5%。在大约1400个词组图象的分割中,其误分割仅为2%,其余均为正确的单词分割点。  相似文献   
4.
本文提出了一种高效的文本图象无损耗压缩方法,该方法有三个步骤组成。首先,在符号位置的参数中分析背景的突出部分及连续性,对图象进行分割。其次,在内部典型的符号标识中抽取图象,采用基于二进制图象的分析和匹配方法,形成具有极少重复符号的典型的合成模型,并从以前的符号标识中获取多级结构簇和典型的模式合成法。后面部分的图象经重新标识,成为简单的库图象。最后,采用具有不同序列、合适的数字编码器和相应的Q编码器,由标识的相关符号位置、典型模式以及库图象实现高缩率。我们的方法在实现压缩和产生极少的错误图象方面优于大多数选择的系统。模式结构族与合成法的折衷压缩率有明显的界限,损耗将会减少至相当小的程度。在等级内容无损耗规则中,我们的方法能确保内容无损耗地重建,可容易地与软模式匹配组合,扩展无损耗模型。另外,组合方式具有JBIG1改进模式和极少的冗余部件库,可实现内容无损耗地递增传输。该方法也可采用相关的各种符号图象,包括叠加的符号如汉字字符图象,即采用只有线段连接和基于二进制图象位置重建的符号分割。  相似文献   
5.
本文描述了一种新颖的、自下而上的中文文本图像版面分割方法。由于中文报纸的文本中有一些特殊的字符,采用许多传统的英文文本分割方法在分割的准确性上经常会失败。基于扫描宽度平滑算法和最小间隔的文本块,本文提出的方法可以解决不同于英文文本的中文文本分割问题。  相似文献   
6.
7.
本文介绍一些大型邮政分拣设备技术的发展情况,其主要内容是,信函分拣设备中的OCR技术、运用网络技术的分拣处理模式,在扁平件分拣技术以及包裹分拣技术。同时,还介绍一些当今先进的分拣设备,这些设备在一定国家的邮政自动化中发挥着重要的作用。  相似文献   
8.
本文论述了一个能分析干扰自由手写数字识别的神经网络和专家系统模型。它的基本识别器是一个神经系统网络,能解决大部分问题,但在一定的干扰影响下会失败。专家系统是第二个识别器,由神经网络分析产生的干扰。神经网络分类器由改进的自组织图形(MSOM)和矢量化学习(LVQ)组成。实验在自组织图形上进行,并应用了MSOM、SOM&LVQ以及MSOM&LVQ技术。实验表明,采用自由手写体数据库的样本,按照这些两层  相似文献   
9.
本文提出了一种基于相连部件的字符定位方法,它是光学字符识别(OCR)系统的一个重要部分。彩色簇采用分割彩色图像成为单一的色彩层,其次,对于每个色彩层,其相连部件采用黑色间距图表分析以及部件边缘框计算。对原始字符的检测,提出了一种排列——合并分析示意图的方法,并应用色彩层中有关相连部件边缘框的信息,以定位所有潜在的字符,最后去除错误的字符。这是识别字符的四个步骤。实验结果表明,本文提出的方法是有效的.  相似文献   
10.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号