共查询到19条相似文献,搜索用时 62 毫秒
1.
利用上正文信息解决汉语自动分词中的组合型歧义 总被引:3,自引:0,他引:3
组合型歧义切分字段一直是汉语自动分词研究中的一个难点。该文将之视为与Word Sense Disambiguation(WSD)相等价的问题。文章借鉴了WSD研究了广泛使用的向量空间法,选取了20个典型的组合型歧义进行了详尽讨论。提出了根据它们的分布“分而治之”的策略,继而根据实验 定了与特征矩阵相关联的上下文窗口大小、窗口位置区分、权值估计等要素,并且针对数据稀疏问题,利用词的语义代码信息对征矩阵进行了降维处理,取得了较好的效果。笔者相信,这个模型对组合型歧义切分字段的排歧具有一般性。 相似文献
2.
针对中文自动分词中组合型歧义消解难的问题,提出了一种新的切分算法来对组合型歧义字段进行消歧。该算法首先自动从训练语料中提取歧义字段的上下文信息来建立规则库,然后利用C-SVM模型结合规则对组合型歧义字段进行歧义消解。最后以1998年1月《人民日报》语料中出现的组合型歧义字段进行训练和测试,实验显示消歧的平均准确率达89.33%。 相似文献
3.
4.
一种中文分词词典新机制——四字哈希机制 总被引:9,自引:0,他引:9
词典是中文自动分词的基础,分词词典机制的优劣直接影响到中文分词的速度和效率。本文首先分析了分词词典在中文信息处理中的作用和已有的三种典型的词典机制,并在此基础上根据中文词语中双字词语较多,并且三字词、四字成语也较多这一特点提出了一种新的分词词典机制-四字哈希机制,充分发挥了现代计算机内存大空间的优势,提高了分词的速度和效率。 相似文献
5.
6.
中文分词是计算机自动处理文本的基础。通过比较常用的机械分词算法的优缺点,提出了分层逐字二分算法,综合了TRIE树和逐字二分分词的特点,以求通过较小的开销来实现较快的匹配速度。实验结果表明,该算法在综合性能上有显著提高。 相似文献
7.
利用上下文信息解决汉语自动分词中的组合型歧义 总被引:15,自引:2,他引:15
组合型歧义切分字段一直是汉语自动分词研究中的一个难点。该文将之视为与WordSenseDisambiguation(WSD)相等价的问题。文章借鉴了WSD研究中广泛使用的向量空间法,选取了20个典型的组合型歧义进行了详尽讨论。提出了根据它们的分布“分而治之”的策略,继而根据实验确定了与特征矩阵相关联的上下文窗口大小、窗口位置区分、权值估计等要素,并且针对数据稀疏问题,利用词的语义代码信息对特征矩阵进行了降维处理,取得了较好的效果。笔者相信,这个模型对组合型歧义切分字段的排歧具有一般性。 相似文献
8.
9.
一种改进的快速分词算法 总被引:38,自引:0,他引:38
首先介绍了一种高效的中电子词表数据结构,它支持首字Hash和标准的二分查找,且不限词条长度;然后提出了一种改进的快速分词算法,在快速查找两字词的基础上,利用近邻匹配方法来查找多字词,明显提高了分词效率.理论分析表明,该分词算法的时间复杂度为1.66,在速度方面,优于目前所见的同类算法。 相似文献
10.
11.
提出了一种新的汉语统计模型CNET,在此基础上提出了一种汉语无词典自动分词算法.该算法首先学习要进行处理的汉语语料,构建CNET,然后根据学习到的知识再去对原始语料进行分词.实验结果表明,该算法分词正确率在70%以上. 相似文献
12.
自动分词技术的瓶颈是切分歧义,切分歧义可分为交集型切分歧义和组合型切分歧义。以组合型歧义字段所在句子为研究对象,考察歧义字段不同切分方式所得结果与其前后搭配所得词在全文中的支持度,构造从合或从分切分支持度度量因子,依据该因子消除组合型歧义。通过样例说明和实验验证该方法可行并优于现有技术。 相似文献
13.
利用汉字二元语法关系解决汉语自动分词中的交集型歧义 总被引:52,自引:2,他引:52
本文提出了一种利用句内相邻之间的互信息及t-测试差这两个统计量解决汉语自动分词中交集型歧义切分字段的方法。初步的实验结果显示,可以正确处理90.3%的交集字段。 相似文献
14.
并行分词方法的研究 总被引:10,自引:0,他引:10
吴胜远 《计算机研究与发展》1997,34(7):542-545
目前,中文分词方法都是属于串行分词方法。本文提出了一种并行分词方法,该方法是根据多级内码理论设计的,它大大提高了分词的速度,并行分词方法还便于设计成集成电路。 相似文献
15.
16.
汉语简繁体转换与语词切分 总被引:2,自引:0,他引:2
随着港澳台湾及世界华人地区与中国大陆文化经济的交流日益频繁,利用电脑开发一种自动化的准确高效的简繁汉字系统显得越来越重要。本文罗列了简繁汉字转换在单词等诸多方面存在的问题,提供了我们已实现并投入使用的系统功能的特点,文章还介绍了本系统所涉及的汉字交换码架和内码,解释了几种语词切分算法以及切分歧义,最后对本系统的可维护性、转换正确率和转换速度三个主要方面进行了性能分析并给出了测试结果。 相似文献
17.
基于多功能逻辑运算分析技术的汉语分词 总被引:3,自引:0,他引:3
孙建军 《计算机研究与发展》1998,35(5):385-388
文中提出了一种基于多功能运算分析技术的汉语自动分词方法,其特点是在汉语词语字序列的计算机内部表示上采用多功能逻辑运算表达式方式,从而使汉语分词过程中以往有用的简单模式比较匹配转换为多模式逻辑运算下的功能操作。 相似文献
18.
汉语词语边界自动划分的模型与算法 总被引:9,自引:1,他引:9
在引入词形和汉字结合点等概念基础上,文中分别描述了一个基于字串构词能力的词形模型和一个基于词语内部、外部汉字结合度的汉字结合点模型,并采用线性插值方法 两种模型融合于一体进行汉词语边界划分。在分析汉语切分候选择空间的基础上,文中还给出了相应的优化搜索算法。与一般的统计方法相比,文中方法的参数可直接从未经加工粗语料中得到,具有较强的适应能力,初步试验表明该方法是有效和可靠的。 相似文献
19.
一种基于词矢量的汉语语义量化模型 总被引:6,自引:0,他引:6
通过建立基于词矢量的汉语语义量化模型来解决语义信息的自动获取及量化问题,描述了模型的建立方法及其在汉语词义排歧中的应用,最后通过构造伪词的方法对模型的语义辨识能力进行了评测。实验表明该语义量化模型具有很好的语义表示能力,并且由于模型的建立是通过对大规模生语料库的统计来完成的,避免了人工对词语语义进行量化时所需的庞大工作量,从而可以运用于许多与语义相关的自然语言处理任务中。 相似文献