首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
书写顺序恢复是从静态文本图像中提取动态的字符书写顺序信息,将2维的图像转换为1维的书写位置的时间序列的过程.为了对手写汉字进行书写顺序提取,提出了一种脱机手写汉字书写顺序的恢复模型.该模型首先将汉字分为整字、部件、子部件和笔画4个层次;然后利用4种拆分操作将整字拆分为部件,再将部件拆分为子部件;最后通过定义一组拆分关系与子部件偏序关系之间的对应规则来得到子部件的全序关系.而将子部件作为最基本的恢复单位,其书写顺序可通过对笔画和交叉笔画对进行分类来得到.实验表明,该模型提出的汉字书写顺序恢复方法的恢复结果具有较高的准确率,且处理速度达到了6.9字/s.  相似文献   

2.
考虑到不同部件(眼睛,嘴等)对人脸分析的贡献差别,提出基于多部件稀疏编码的人脸图像分析方法.首先,选取对人脸(表情)分析影响较大的几个人脸部件,然后,利用多视角稀疏编码方法学习各部件的字典,并计算相应的稀疏编码,最后,将稀疏编码输入分类器(支持向量机和最小均方误差)进行判决.分别在数据库JAFFE和Yale上进行人脸(表情)识别及有遮挡的人脸(表情)识别实验.实验结果表明,基于多部件稀疏编码的人脸分析能较好地调节各部件的权重,优于各单一部件和简单的多部件融合方法的性能.  相似文献   

3.
提出一种基于玄秘塔碑的柳体二级字库重组方法。以柳公权的《玄秘塔》碑文为基础,将其原有的汉字拆分为所需部件,对部件进行编码,定义汉字的结构及区位信息编码。采用Visual C++语言设计汉字查询、合成、入库的界面程序,建立碑文二级字库。软件运行结果验证了该方法的可行性。  相似文献   

4.
罗瑜  李涛  何大可  徐图 《计算机工程》2008,34(4):198-200
提出一种基于部件的人脸分类方法,将人脸部件的离散余弦变换系数作为特征向量,通过支持向量机训练分类器。部件分类器确定了人脸图像中的部件区域,人脸分类器确定了人脸图像的所属类别。ORL人脸图像数据库仿真实验表明,该方法对表情、姿态变化具有很好的鲁棒性。  相似文献   

5.
王建平  王晓雪 《计算机应用》2007,27(12):3084-3088
针对汉字特点,提出一种基于汉字结构度和繁简度二类模态判别的多模式识别法。给出了汉字字型结构度类型的字型编码,以及汉字字型结构分解算法;对分解后的部件进行繁简度判断,依据各部件繁简度模态选择合适的特征提取算法,实现手写体汉字字型分解的多模式识别方法融合;对相似字采用两级分类的识别法,从而提高汉字的识别率和正确率。仿真实验验证了方法的有效性。  相似文献   

6.
正在使用各种输入法输入汉字或各种符号的过程中,我们可能会遇到各种各样的奇怪问题。许多时候都怀疑输入法出了问题,但实际情况表明,问题不见得是因为输入法软件出问题,还有可能是使用不当所致。找回丢失的拆分输入法使用百度输入法,有一个非常好的功能就是可以将一些不认识的字先拆分,拆分出的部件是你认识的,然后用这些部件的拼音来组合输入,从而获得这个字。例如,要输入"焱"这个字,只需输入huohuohuo这个  相似文献   

7.
目的目标部分缺失是SAR(synthetic aperture radar)ATR(automatic target recognition)中的难点问题,实现SAR目标散射部件级别的检测可以有效解决这一问题。方法基于目标的部件级别3维电磁散射模型提出了一种基于匹配滤波的单个散射部件检测方法。该方法通过模型预测单个散射部件的图像构造匹配滤波器,并通过在模型3维参数域的调整实现了匹配滤波器在3维空间的滑动,得到最佳的部件检测位置和最大相关系数。为克服方位角估计不准的限制,采用了领域搜索寻找最佳检测结果。按照散射部件的强度由强至弱序惯检测各个散射部件。采用CLEAN算法去除部件之间的相互干扰。结果在简易坦克部件级3维电磁散射模型基础上,利用电磁仿真数据、暗室数据以及MSTAR(moving and stationary target acquisition and recognition)干扰数据进行了单个散射部件检测实验,实验结果表明,本文方法可以很好地检测出实测图像中存在的目标散射部件,并且可以检测出缺失的散射部件。结论本文提出了基于匹配滤波器的散射部件检测方法,实验证明了该方法的有效性。  相似文献   

8.
针对部件组字过程中由于缩放变换造成的部件笔画粗细和衬线失真的问题, 提出了一种通过优化缩放变换直接生成目标字形的方法。通过部件变换序列的生成算法以及笔画变换操作算法实现了由原始部件直接生成目标部件的缩放变换。原型系统的实验结果表明, 该方法能够实现汉字部件的无失真缩放变换, 从而提高了汉字组字系统生成字形的质量以及字库自动化生成的效率。  相似文献   

9.
DICOM图像文件的储存和传输一直是近代医学图像处理中一个比较热门的研究话题,其中较好的解决方案就是对DICOM图像进行压缩处理。文中通过对DICOM文件的数据结构进行分析,将DICOM文件拆分成图像数据部分和文本信息部分,然后采用9/7提升小波变换对拆分出来的DICOM图像数据进行图像变换,最后对变换后的小波系数进行SPIHT编码完成DICOM图像压缩。主客观对图像的评价表明SPIHT算法在高压缩比时仍能保证图像较好的质量。该方法能够对DICOM图像的存储和传输带来便利也将产生一定的影响。  相似文献   

10.
本文面向手写字符序列输入信号连续识别研究,分析了汉字及联机手写文本的特点,提出并构建了手写汉字部件集。基于该部件集,完成了GB2312-80的6,763个汉字的部件拆分编码和部件集的测试。统计编码数据发现,汉字依手写部件数的分布规律呈对数正态分布。本文从统计学和字符识别技术的角度对手写部件的构字能力作了分析和讨论,部件集的设计方案在部件选择和汉字拆分上均满足设计要求。实验表明,基于手写部件构造的部件识别器对手写汉字和连续汉字的部件识别率分别达到70.21%和58.49%。  相似文献   

11.
为了适应图像的存储和传输,需要对图像进行压缩以减少数据量。对于彩色图像而言,其色彩模式和数据组合直接影响了压缩效率,压缩时通常采用每个分量单独压缩后再统一编码,未考虑分量之间的组合关系。根据彩色图像的数据结构将图像的RGB分量排列组合成新的灰度图像,将其中一个分量作为基准实行粗细分层操作,汇同该分量与其他两个分量的差值图像分别按JPEG压缩标准进行压缩编码。实验表明,该算法得到的压缩图像在与JPEG同等质量的条件下,数据量要小于JPEG压缩的数据量,耗时短,同时可为快速的彩色图像搜索和预览提供技术参考。  相似文献   

12.
为将《颜勤礼碑》现有碑文中的部件合成新颜体字,需要进行汉字部件处理。现有的主流图像处理软件无法在不改变字体部件大小、边缘形态的情况下对其横向、纵向加粗或者细化部件。为此,提出一种汉字部件膨胀、细化以及优化的旋转算法。该算法可解决采用普通算法对部件多次旋转后严重失真的问题。基于该算法编写的《颜勤礼碑》汉字软件可以通过人工微调的方式横向、纵向加粗或者细化部件笔画以及旋转部件,以使合成的新字整体上达到协调、美观的效果。  相似文献   

13.
本文通过研究图形学中图与图之间的关系以及人们对汉字认知习惯的特点,将汉字拆分为多个汉字组件。将每个汉字组件看作一个图形单位,对照图与图之间的关系,将这些汉字组件进行重新的组合,从而使同一个汉字具备了多个字形。通过使用不同的字形,将水印信息嵌入到文本当中。实验证明,在水印的不可感知性、鲁邦性等方面均获得了很好的效果。  相似文献   

14.
提出了一种基于核主成分特征组合的人脸识别方法。首先利用主成分分析,获得原始输入图像的二阶特征脸图像;然后运用核主成分分析分别抽取原始图像和二阶特征脸图像的核主成分特征,最后将它们组合成一个组合特征向量,进行人脸识别。在ORL人脸库上的实验表明,两种图像的核主成分特征分别有着良好的特点,取得了较好的识别效果,优于核主成分分析和二阶特征脸的结果。  相似文献   

15.
One of the main problems in component assembly is how to establish properties on the assembly code by only assuming a limited knowledge of the single component properties. Our answer to this problem is an architectural approach in which the software architecture imposed on the assembly prevents black-box integration anomalies. The basic idea is to build applications by assuming a “coordinator-based” architectural style. We, then, operate on the coordinating part of the system architecture to obtain an equivalent version of the system which is failure-free. A failure-free system is a deadlock-free one and it does not violate any specified coordination policy. A coordination policy models those interactions of components that are actually needed for the overall purpose of the system. We illustrate our approach by means of an explanatory example and validate it on an industrial case study that concerns the development of systems for safeguarding, fruiting, and supporting the Cultural Heritage.  相似文献   

16.
面向方面编程与构件技术的结合是开发更加可复用、可扩展的软件的新方法,不同于传统的通过修改系统架构以及引入新的编程语言实现二者的结合。提出一种将文件划分为构件与方面,利用XML语言描述构件与方面的编织关系,结合构件客器技术与面向方面编程的方法实现构件与方面的运行时编织的方法。新的方法既可以简单方便地描述方面,又有效地扩展了现有系统,原有构件不需要任何改动,就可以直接实现同方面的编织,井确保比较高的运行效率。同时该方法在CAR上的软件工程实践也作了描述。  相似文献   

17.
CB模型是一种把图像分为色度和亮度方面的彩色模型,对图像进行分割去噪时可以很好地保留图像的细节和边缘。首先把一幅含有噪声的彩色图像分割成几何和摆动部分(纹理和噪声),然后利用CB模型分别在色度和亮度两个通道上求几何和摆动部分,再合成图像的几何和摆动部分,其中几何部分即图像去噪后的图像。实验证明CB模型可以快速准确地分割出目标,消除图像的噪声部分,是一种有效的图像分割方法。  相似文献   

18.
可复用软构件检索是构件库和软件复用领域的研究重点.基于刻面分类模式,将构件的刻面描述和查询表达式分别映射成两棵树,利用构件信息集成方式在集成端数据库借鉴树匹配思想进行检索,有效地提高了查全率和查准率.  相似文献   

19.
Skew estimation and page segmentation are the two closely related processing stages for document image analysis. Skew estimation needs proper page segmentation, especially for document images with multiple skews that are common in scanned images from thick bound publications in 2-up style or postal envelopes with various printed labels. Even if only a single skew is concerned for a document image, the presence of minority regions of different skews or undefined skew such as noise may severely affect the estimation for the dominant skew. Page segmentation, on the other hand, may need to know the exact skew angle of a page in order to work properly. This paper presents a skew estimation method with built-in skew-independent segmentation functionality that is capable of handling document images with multiple regions of different skews. It is based on the convex hulls of the individual components (i.e. the smallest convex polygon that fully contains a component) and that of the component groups (i.e. the smallest convex polygon that fully contain all the components in a group) in a document image. The proposed method first extracts the convex hulls of the components, segments an image into groups of components according to both the spatial distances and size similarities among the convex hulls of the components. This process not only extracts the hints of the alignments of the text groups, but also separate noise or graphical components from that of the textual ones. To verify the proposed algorithms, the full sets of the real and the synthetic samples of the University of Washington English Document Image Database I (UW-I) are used. Quantitative and qualitative comparisons with some existing methods are also provided.  相似文献   

20.
为了帮助用户在低带宽、高延迟的情况下快速切入自己需要的页面,并自动得到页面中自己感兴趣的部分,该文提出了一个基于Web Component的页面分解算法。算法首先将HTML页面格式化为XHTML形式,然后根据XHTML页面生成XMLDOMTree,从中分析、抽取Web Component作为独立实体,并给这些Web Component分配标识,最后在数据库中存储页面结构、Web Component及相关信息,用于构建个性化门户。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号