首页 | 本学科首页   官方微博 | 高级检索  
     

基于上下文相关的最大概率汉语自动分词算法
引用本文:金瑜,陆启明,高峰. 基于上下文相关的最大概率汉语自动分词算法[J]. 计算机工程, 2004, 30(16): 146-148
作者姓名:金瑜  陆启明  高峰
作者单位:合肥工业大学理学院,合肥,230009;中国科学技术大学近代物理系,合肥,230027
摘    要:提出了一种新的汉语自动分词算法,其主要思想是通过前后两次对文章的扫描来解决分词过程中出现的交叉歧义问题,介绍了一种新的有效的字段切分算法,它能够排除类似穷举算法中冗余的单字词的切分可能。

关 键 词:上下文相关  汉语自动分词  分词统计模型
文章编号:1000-3428(2004)16-0146-03

The Maximum Probability Algorithm of Automatic Chinese Word Segmentation Based on Context
JIN Yu,LU Qiming,GAO Feng. The Maximum Probability Algorithm of Automatic Chinese Word Segmentation Based on Context[J]. Computer Engineering, 2004, 30(16): 146-148
Authors:JIN Yu  LU Qiming  GAO Feng
Abstract:This article presents a new algorithm of automatic Chinese word segmentation. Its main idea is to settle the problem of different meanings under the separating words process by scanning the article two times. And puts forward a new efficient string segmentation algorithm, which can exclude possibilities of redundant single words in other algorithms.
Keywords:Context relation  Automatic Chinese segmentation  Statistical model of segmentation
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号