首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
提出了一种用于机器识字的汉字容错编码方法。该编码采用统计粗分类和结构细分类相结合的方法.定义了易于机器识别的汉字结构字元集,给出了笔划字元的顺序判断规则。构建了37类子结构的编码和冗余容错编码,建立了仿人构字的汉字编码规则和字典。仿真实验表明,这种编码方法易于机器识别,具有容错性,且拒识和误识率较低。  相似文献   

2.
物流信息系统编码模型研究   总被引:2,自引:0,他引:2  
为了解决企业内部信息编码问题,提高基础信息化实施水平,本文系统的介绍了物流信息系统中编码的定义、编码结构模型及编码分类,在层群码分类编码方法的基础上,提出了柔性层群码分类编码方法。以广西某粮油食品有限公司为例。应用柔性层群码编码方法对企业的产品进行了详细的编码,并给出了一种校验位的计算方法。最后对层群码分类编码方法及柔性层群码分类编码方法进行了比较分析。  相似文献   

3.
提出了一种用于机器识字的汉字容错编码方法。该编码采用统计粗分类和结构细分类相结合的方法,定义了易于机器识别的汉字结构字元集,给出了笔划字元的顺序判断规则。构建了37类子结构的编码和冗余容错编码,建立了仿人构字的汉字编码规则和字典。仿真实验表明,这种编码方法易于机器识别,具有容错性,且拒识和误识率较低。  相似文献   

4.
自动图像标识就是自动识别图像中的有意义目标并赋予其相应的语义关键词, 该过程虽然对于人类来说并不难, 但是对于计算机而言却是一项艰巨而有挑战性的任务. 鉴于人类识别物体通常是一个由粗到细的过程, 本文提出一种层次标识方案. 首先, 输入图像被自动分割成多个区域, 每个区域由支持向量机进行粗分类. 由于粗分类结果会直接影响后续细分类, 本文建立统计的上下文语义关系以修订不正确的粗标识. 接着为了对每个获得粗标识的区域进行细分类, 本文提出一种半监督期望最大化算法, 该算法不仅能为每一粗类别下的细类找到代表模式, 而且能对粗分类区域进行二次分类, 使其获得细标识. 最后我们再次应用上下文语义关系修订不合适的细标识. 为了证明上述识别方案的有效性, 我们开发了一个原型图像标识系统, 实验结果证明该层次标识方案是有效的.  相似文献   

5.
本文提出了一种用于机器识字的汉字容错编码方法。该编码采用统计粗分类和结构细分类相结合的方法,定义了易于机器识别的汉字结构字元集,给出了笔划字元的顺序判断规则。构建了37类子结构的编码和冗余容错编码,对易重码和误码的字做了特定的区分,建立了仿人构字的汉字编码规则和字典。仿真实验表明,这种编码方法易于机器识别,具有容错性,且拒识和误识率较低。  相似文献   

6.
基于形状特征的字母手势的分类及识别算法   总被引:2,自引:0,他引:2  
郭兴伟  葛元  王林泉 《计算机工程》2004,30(18):130-132,186
提出了一种基于形状特征的字母手势的分类及识别算法。根据手势图像中手指的方向及数目进行粗分类,然后在边界图像及二值图像中提取手势的形状特征向量,进行基于类似度的模板匹配,实现对字母手势的细分类。实验证明,基于形状特征的粗分类能够排除完全不匹配的手势,减少了识别过程中的匹配搜索时间,提高了识别率。  相似文献   

7.
经典的自编码模型(BAE、SAE、DAE、CAE)都是基于输出数据对原始数据的重构,提取输入信息的低维度特征,将该特征用于图像分类不一定能够取得很好的判别效果。利用标签信息,提出了堆叠判别自编码模型(SDcAE),该模型将类编码作为隐层神经元约束加入到堆叠自编码器的训练中,使得隐层学习的特征具有更好的判别能力。同时,将类编码作为判别损失加入到Softmax分类器中,提出了类编码分类器(CEC)。由于类间样本特征误差的降低,该分类器可以取得更好的训练效果,从而提高了最终分类的正确率。实验表明,堆叠判别自编码器和类编码分类器在图像分类中是有效可行的。  相似文献   

8.
为提高地板生产过程中分类处理的自动化程度及其快速性,提出了一种基于地板颜色特征的层次分类方法。在HSV色彩空间提取出地板的颜色矩特征,并给予色调特征数据以较高权重,降低纹理特征对分类的影响。在对未知样本分类时,利用预先建立的粗细两层分类依据库,采用最短距离决策、K-最近相邻对未知地板样本由粗到细进行逐层判定。测试结果表明,该分层处理方案在保证较高的分类正确率(95.6%)的基础上,有效地减少了K-最近相邻的数据处理量。  相似文献   

9.
在医学上,人上皮2型(HEp-2)细胞的间接免疫荧光检测在自身免疫性疾病的诊断中起着决定性的作用,而自身免疫性疾病的诊断,往往受到人力物力的限制.鉴于神经网络在图像分类任务中的优异性能,提出了一种基于聚类算法的粗-细两阶段卷积神经网络算法(CTFTCNN),并应用到HEp-2细胞分类中.在所提出的方法中,有两种类型的分类任务:粗粒度分类和细粒度分类.粗粒度分类是指,采用聚类算法从原始数据集中生成一个粗粒度数据集,用多尺度卷积神经网络(MSCNN)去处理该粗粒度数据集.然后在一定条件下进行细粒度分类.在细粒度分类时,仅对在粗粒度分类中至少包含了两个细类的粗类进行处理,且采用VGG16网络对每个这样的粗类进行细分.最后集成粗粒度网络和细粒度网络的结果.具体地,对于至少包含了两个细类的粗类,将粗粒度和细粒度网络中提取的特征融合起来决定最终的预测结果.在真实数据集上进行实验以评估所提出的模型.实验结果表明:与目前最先进的方法相比,该模型具有良好的应用前景.  相似文献   

10.
基于知网的词汇语义自动分类系统   总被引:3,自引:0,他引:3  
词汇语义分类是现代汉语语义研究的重要组成部分。该文介绍的基于知网的词汇语义自动分类系统提供了词汇语义分类的一个新思路。目前该系统的研制已取得实质性成果,在基于知网的语义分类体系上,开发了粗分类模块,对知网提供的6万余条汉语常用词进行语义分类,得到1420个语义等价类;并在此基础上,开发了细分类模块,针对粗分类结果中颗粒度较大的词类,将其进一步细化为适合实际需要的子类。实验结果证明该系统所作的分类在自然语言处理和语言学研究中起到了重要作用。  相似文献   

11.
邓艾  吴谨  杨萃  李娟 《计算机科学》2012,39(103):513-514,548
提出了一种新的基于二代Curvelet变换的多传感器图像融合算法,分别讨论了粗尺度系数和细尺度系数的融合规则。首先采用二代Curvelet变换对源图像进行多尺度的分解,将粗尺度系数值进行变换使其强度分布一致,再采用加权平均的方法确定粗尺度融合系数。采用显著性测度和区域匹配度联合分析的方法确定细尺度系数,并进行一致性验证,最后进行二代Curvelet逆变换获取融合图像。将传统融合规则和该方法从独立因素、联合因素以及综合评价3方面进行了比较,结果表明,该方法较好地保持了边缘信息,减少了细节信息的损失,具有较优的性能参数和良好的视觉效果。  相似文献   

12.
周爱平  梁久祯 《计算机应用》2010,30(11):3011-3014
针对同一场景红外图像与可见光图像的融合问题,提出了一种基于二代Curvelet变换与模块化主成分分析(MPCA)的图像融合新方法。首先对原始图像分别进行快速离散Curvelet变换,得到不同尺度和方向下的粗细尺度系数;根据红外图像与可见光图像的不同物理特性以及人类视觉系统特性,对粗尺度系数的选择,采用基于模块化主成分分析(MPCA)的融合规则,确定融合权值,而对不同尺度与方向下的细尺度系数的选择,采用基于局部区域能量的融合规则;最后经Curvelet逆变换得到融合结果。实验结果表明,该方法能够更加有效、准确地提取图像中的特征,在主观视觉效果与客观评价指标上均取得了较好的融合效果,是一种可行有效的图像融合算法。  相似文献   

13.
For elliptic partial differential equations with periodically oscillating coefficients which may have large jumps, we prove robust convergence of a two-grid algorithm using a prolongation motivated by the theory of homogenization. The corresponding Galerkin operator on the coarse grid turns out to be a discretization of a diffusion operator with homogenized coefficients obtained by solving discrete cell problems. This two-grid method is then embedded inside a multi-grid cycle extending over both the fine and the coarse scale. Received August 10, 1999; revised July 28, 2000  相似文献   

14.
在离散分形布朗随机场(DFBR)理论的基础上,提出一种多分辨率目标识别算法。该算法克服了一般分形方法在固定尺度上提取图象分形特性的缺点,它以小波分解为主要数学工具,利用随机场的功率谱特性以及相邻两级小波分量之间的能量比关系,完成了由粗到精的目标识别。该算法的最大特点是对目标大小具有自适应性,特别适合于自然场景中的多目标识别,同时也使得计算量大大减少。  相似文献   

15.
文物点云模型的优化配准算法*   总被引:1,自引:0,他引:1  
目的 针对带有噪声的文物点云模型,采用一种由粗到细的方法来实现其断裂面的精确配准。方法 首先采用一种变尺度点云配准算法实现粗配准,即配准测度函数的尺度参数由大到小逐渐变化,可避免算法陷入局部极值,并获得较高精度的初始配准结果。然后采用基于高斯概率模型的改进迭代最近点(iterative closest point, ICP)算法进行细配准,可以有效地抑制噪声对配准结果的影响,实现断裂面的快速精确匹配。结果 采用兵马俑文物碎块的配准结果表明,该优化配准算法能够实现文物断裂面的精确配准,而且在细配准阶段取得了较高的配准精度和收敛速度。结论 因此说,该优化配准算法是一种快速、精确、抗噪性强的文物点云配准方法。  相似文献   

16.
基于小波多尺度分析的图象快速匹配模型   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了小波多尺度分析理论在计算机中层视觉二维图象识别中的一种应用,并给出了一个高效匹配模型。利用二维图象的小波多尺度分解来模拟2个最主要的生物视觉通路,并对不同通道分别进行匹配计算,由粗到精地实现了基于扫视和凝视的二维图象的快速识别。与传统的模板匹配法相比,该方法具有速度快、搜索范围大、精度高、抗噪能力强等优点  相似文献   

17.
陈景航  杨宜民 《计算机工程》2005,31(22):167-168,171
针对传统模板匹配算法的缺点,提出了一种基于Harr小波和SSDA的模板匹配算法,对图像进行由粗到细的匹配。实验结果表明:该算法流程简单,实时性好,匹配精度高。在不失匹配精度的条件下,克服了运算量大的缺点,从而满足图像匹配系统的实时性要求。  相似文献   

18.
In this paper, some fast feature extraction algorithms are addressed for joint retrieval of images compressed in JPEG and JPEG2000 formats. In order to avoid full decoding, three fast algorithms that convert block-based discrete cosine transform (BDCT) into wavelet transform are developed, so that wavelet-based features can be extracted from JPEG images as in JPEG2000 images. The first algorithm exploits the similarity between the BDCT and the wavelet packet transform. For the second and third algorithms, the first algorithm or an existing algorithm known as multiresolution reordering is first applied to obtain bandpass subbands at fine scales and the lowpass subband. Then for the subbands at the coarse scale, a new filter bank structure is developed to reduce the mismatch in low frequency features. Compared with the extraction based on full decoding, there is more than 72% reduction in computational complexity. Retrieval experiments also show that the three proposed algorithms can achieve higher precision and recall than the multiresolution reordering, especially around the typical range of compression ratio.  相似文献   

19.
This paper presents a wavelet-based texture segmentation method using multilayer perceptron (MLP) networks and Markov random fields (MRF) in a multi-scale Bayesian framework. Inputs and outputs of MLP networks are constructed to estimate a posterior probability. The multi-scale features produced by multi-level wavelet decompositions of textured images are classified at each scale by maximum a posterior (MAP) classification and the posterior probabilities from MLP networks. An MRF model is used in order to model the prior distribution of each texture class, and a factor, which fuses the classification information through scales and acts as a guide for the labeling decision, is incorporated into the MAP classification of each scale. By fusing the multi-scale MAP classifications sequentially from coarse to fine scales, our proposed method gets the final and improved segmentation result at the finest scale. In this fusion process, the MRF model serves as the smoothness constraint and the Gibbs sampler acts as the MAP classifier. Our texture segmentation method was applied to segmentation of gray-level textured images. The proposed segmentation method shows better performance than texture segmentation using the hidden Markov trees (HMT) model and the HMTseg algorithm, which is a multi-scale Bayesian image segmentation algorithm.  相似文献   

20.
A vision based approach for calculating accurate 3D models of the objects is presented. Generally industrial visual inspection systems capable of accurate 3D depth estimation rely on extra hardware tools like laser scanners or light pattern projectors. These tools improve the accuracy of depth estimation but also make the vision system costly and cumbersome. In the proposed algorithm, depth and dimensional accuracy of the produced 3D depth model depends on the existing reference model instead of the information from extra hardware tools. The proposed algorithm is a simple and cost effective software based approach to achieve accurate 3D depth estimation with minimal hardware involvement. The matching process uses the well-known coarse to fine strategy, involving the calculation of matching points at the coarsest level with consequent refinement up to the finest level. Vector coefficients of the wavelet transform-modulus are used as matching features, where wavelet transform-modulus maxima defines the shift invariant high-level features with phase pointing to the normal of the feature surface. The technique addresses the estimation of optimal corresponding points and the corresponding 2D disparity maps leading to the creation of accurate depth perception model.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号