排序方式: 共有48条查询结果,搜索用时 15 毫秒
1.
近几年的中文分词研究中,基于条件随机场(CRF)模型的中文分词方法得到了广泛的关注。但是这种分词方法在处理歧义切分方面存在一定的问题。CRF虽然可以消除大部分原有的分词歧义,却会带来更多新的错误切分。该文尝试找到一种简单的、基于“固结词串”实例的机器学习方法解决分词歧义问题。实验结果表明,该方法可以简单有效的解决原有的分词歧义问题,并且不会产生更多新的歧义切分。 相似文献
2.
3.
4.
串行关系是能区分上下近似的最低要求.本文在串行关系下研究粗糙集理论,讨论串行粗糙集的特征性质及计算方法,并把相关结论推广到串行粗槌模糊集上,得出串行粗糙模糊集上下近似算子的有趣性质和简洁算法. 相似文献
5.
基于HMM的百科辞典文本中旬子的知识点分类 总被引:1,自引:0,他引:1
在百科全书条目文本中,往往以几个不同的侧面说明一个条目,一个侧面构成有关这一条目的一个知识点。知识点是一般文本处理领域中话题这一概念在百科全书文本中的具体表现。属于同一个类型的条目文本中总是重复出现有限的几个知识点,这些知识点构成了有关该类型的知识点集合,并且这些知识点在该类型不同的条目文本中的分布有较强的规律性。在条目文本中识别出对应的知识点序列是百科全书中知识提取过程的重要一环。该文提出了一种基于隐马尔科夫(HMM)模型的方法,利用知识点在条目文本中的转移规律以及知识点的词特征分布来判断每个句子的知识点类别。实验表明这个方法能取得较好的结果,在《中国大百科全书》地理卷的中国县市类型的条目文本中的实验结果的正确率为91.8%。 相似文献
6.
7.
介绍了基于半条件随机域(semi-Markov conditional random fields,简称semi-CRFs)模型的百科全书文本段落划分方法.为了克服单纯的HMM模型和CRF模型的段落类型重复问题,以经过整理的HMM模型状态的后验分布为基本依据,使用了基于词汇语义本体知识库的段落开始特征以及针对特定段落类型的提示性特征来进一步适应目标文本的特点.实验结果表明,该划分方法可以综合利用各种不同类型的信息,比较适合百科全书文本的段落结构,可以取得比单纯的HMM模型和CRF模型更好的性能. 相似文献
8.
基于多特征的自适应新词识别 总被引:4,自引:0,他引:4
为提高自动分词系统对未登录词的识别性能,提出和实现了一种基于多特征的自适应新词识别方法,综合考虑了被处理文本中重复字符串的上下文统计特征(上下文熵)、内部耦合特征(似然比)、背景语料库对比特征(相关频率比值)以及自动分词系统辅助的边界确认信息等,并直接从被抽取文本中自动训练识別模型.同时,新词识别过程在字串PAT-Array数据结构上进行,可以抽取任意长度的新词语.实验结果表明,该方法新词发现速度快、节省存储空间. 相似文献
9.
宋柔 《计算机研究与发展》1988,(7)
DCLISP是北京计算机学院人工智能研究室研制的一种LISP方言,已实现在1BMPC/XT,VICTOR-9000机器上.它对传统LISP的语法和语义作了扩充,并增加了一系列新机制,其中主要的是按模式传递参数的机制,动态编译机制,以及可控制的约束机制. 相似文献
10.