共查询到20条相似文献,搜索用时 125 毫秒
1.
2.
中文自动分词是中文信息处理中的重要步骤,它是机器翻译、计算机人机接口等诸多中文信息应用领域的基础,因此,对其研究具有重要的理论和现实意义,利用最大匹配法(MM)进行自动分词经实践证明是有效的、可行的汉语分词法。 相似文献
3.
基于中文分词的OWL—S/UDDI语义Web服务检索模型 总被引:2,自引:0,他引:2
目前中文搜索引擎尚不能进行语义检索,经OWL-S语义扩展后的语义Web服务检索也未充分考虑中文词语之间无空格的特点.基于语义Web服务技术与中文分词技术,提出基于中文分词的OWL-S/UDDI语义Web服务检索模型.该模型对中文检索请求语句进行中文分词并附加语义,所生成的服务请求OWL-S文档与语义扩展UDDI中的OWL-S服务描述进行匹配,进而实现Web服务的动态查找与组合.实验结果表明,语义Web服务检索可提高Web服务发现的质量. 相似文献
4.
基于反序词典的中文分词技术研究 总被引:2,自引:1,他引:1
中文自动分词是计算机中文信息处理中的难题.在对中文分词的现有技术研究的基础上,对反序最大匹配分词方法进行了较深入的研究探讨,在此基础上对中文分词的词典结构和分词算法做了一部分改进,设计了基于反序词典的中文分词系统.实验表明,该改进算法加快了中文的分词速度,使得中文分词系统的效率有了显著提高. 相似文献
5.
中文分词是中文信息处理的基础,在诸如搜索引擎,自动翻译等多个领域都有着非常重要的地位。中文分词词典是中文机械式分词算法的基础,它将告诉算法什么是词,由于在算法执行过程中需要反复利用分词词典的内容进行字符串匹配,所以中文分词词典的存储结构从很大程度上决定将采用什么匹配算法以及匹配算法的好坏。在研究现存分词词典及匹配算法的基础上,吸取前人的经验经过改进,为词典加上了多级索引,并由此提出了一种新的中文分词词典存储机制——基于二级索引的中文分词词典,并在该词典的基础上提出了基于正向匹配的改进型匹配算法,大大降低了匹配过程的时间复杂度。从而提高了整个中文分词算法的分词速度。 相似文献
6.
语义Web服务的OWL—S描述及其应用 总被引:1,自引:0,他引:1
实现语义Web服务的关键是对Web服务进行语义描述及其在语义检索模型中的应用.国外学术界提出的语义Web服务的OWL-S框架并没有充分考虑检索请求的中西语言表达的差异,因此该框架的实际应用必须对中文查询请求进行中文分词处理.语义Web服务的OWL-S检索模型,首先对中文检索请求语句进行中文分词,然后通过本体进行语义标注生成Web服务请求的OWL-S文档,继而在OWL-S语义扩展后的UDDI中实施语义检索匹配.该模型在中文分词的基础上,结合语义Web服务技术实现Web服务的动态查找与组合,可提高Web服务的查全率和查准率. 相似文献
7.
文本挖掘中的中文分词算法研究及实现 总被引:4,自引:0,他引:4
文本挖掘是指使用数据挖掘技术,自动地从文本数据中发现和提取独立于用户信息需求的文档集中的隐含知识。而中文文本数据的获得是依靠中文信息处理技术来进行的,因而自动分词成为中文信息处理中的基础课题。对于海量信息处理的应用,分词的速度是极为重要的,对整个系统的效率有很大的影响。分析了几种常见的分词方法,设计了一个基于正向最大匹配法的中文自动分词系统。为了提高分词的精度,对加强歧义消除和词语优化的算法进行了研究处理。 相似文献
8.
中文智能信息检索中的关键是自然语言处理技术,汉语自动分词技术是中文自然语言处理的基础.基于机械匹配的分词方法简洁、实用,但该方法切分精度不高且无法有效克服切分歧义.针对机械匹配最大匹配算法的应用进行了改进,并将相似串应用于教学资源自然语义查询. 相似文献
9.
中文分词算法在搜索引擎应用中的研究 总被引:15,自引:1,他引:14
欧振猛 《计算机工程与应用》2000,36(8):80-82,84
在Internet高速发展的信息时代,搜索引擎是人们获得有效信息的强有力手段之一。中文搜索引擎的重点在于中文关键信息提取,其中的难点就是中文自动分词。该文重点讨论中文自动分词算法。算法采用基于自动建立词库的最佳匹配方法来进行中文分词,同时采用基于改进型马尔可夫N元语言模型的统计处理方法来处理分词中出现的歧义问题,从而提高精度。 相似文献
10.
中文自动分词系统的设计模型 总被引:9,自引:1,他引:9
邓宏涛 《计算机与数字工程》2005,33(4):138-140
介绍了常用的中文自动分词方法,在此基础上,给出了中文自动分词系统的理论模型,指出评价自动分词系统优劣的性能指标,并对分词系统的发展作了探讨。 相似文献
11.
12.
介绍了多级文语浏览器的设计与实现。该软件的设计应用了基于组件的软件设计方法。该系统充分利用了多级内码的相关理论,将浏览器的汉字处理水平提高到词一级,而且实现了网页文本朗读功能,填补了国内空白。 相似文献
13.
中文分词的方法主要可分为基于规则和基于统计两大类:前者一般借助于词图的方法,将分词问题转化为最优路径问题,通常切分结果不惟一;后者利用统计模型对语料库进行统计,计算量较大,但准确率较高.对词图和N元语法进行了介绍,并结合两者实现了一种中文分词方法.该方法将词图中的最大概率路径作为中文句子分词的结果,其中涉及对语料库进行二元词频统计,设计了一个多级哈希结构的分词词典,实验数据表明该方法能有效地进行自动分词. 相似文献
14.
基于统计分词的中文网页分类 总被引:9,自引:3,他引:9
本文将基于统计的二元分词方法应用于中文网页分类,实现了在事先没有词表的情况下通过统计构造二字词词表,从而根据网页中的文本进行分词,进而进行网页的分类。因特网上不同类型和来源的文本内容用词风格和类型存在相当的差别,新词不断出现,而且易于获得大量的同类型文本作为训练语料。这些都为实现统计分词提供了条件。本文通过试验测试了统计分词构造二字词表用于中文网页分类的效果。试验表明,在统计阈值选择合适的时候,通过构建的词表进行分词进而进行网页分类,能有效地提高网页分类的分类精度。此外,本文还分析了单字和分词对于文本分类的不同影响及其原因。 相似文献
15.
中文交互式网络搜索引擎及其自学习能力 总被引:8,自引:1,他引:8
论文介绍了一种具有自学习能力的中文交互式网络搜索引擎INSE(aninteractivenetsearchengineforChi-nesetext),向量空间模型、基于自动机思想的中文分词技术和神经网络BP算法的应用是INSE的主要特点,重点讨论了INSE的自学习能力。基于自动机思想分词是INSE提出的新概念,应用于中文分词可以满足最大匹配且速度较快。INSE自学习能力的实现依靠神经网络的BP算法。该算法应用于交互式网络搜索引擎可以提供更加精确的查询结果。 相似文献
16.
随着汉语日益走向世界以及语音技术的发展,让计算机能讲汉语便自然成为了一种需求。介绍了一种汉语文语转换(TTS:Text—To—Speech),引擎SmartTalk的设计与实现。讨论了用于TTS的汉语语音库和汉语词库的设计,以及基于词库的分词算法和基于音库的语音合成。 相似文献
17.
中文分词是中文信息处理的基础,在语音合成、中外文翻译、中文检索、文本摘要等方面均有重要应用。在中文分词的任务中,存在的主要问题在于可用有效特征较少,分词准确率较低,如何有效的获取和使用分词特征是关键。该文从中文文本生成的过程出发,基于词长噪声的高斯分布特性,提出利用上下文的词长特征作为分词特征。实验表明,在封闭测试中,采用条件随机场模型,使用该特征对现有的实验结果有提高作用。
相似文献
相似文献
18.
19.
GUO Yi 《数字社区&智能家居》2008,(7)
本文研究了中文分词技术,改进了传统的整词二分分词机制,设计了一种按照词的字数分类组织的新的词典结构,该词典的更新和添加更加方便,并根据此词典结构提出了相应的快速分词算法。通过对比实验表明,与传统的整词二分、逐字二分和TRIE索引树分词方法相比,该分词方法分词速度更快。 相似文献
20.
该文研究和探讨一种新的分词方法 基于词边界分类的方法。该方法直接对字符与字符之间的边界进行分类,判断其是否为两个词之间的边界,从而达到分词的目的。相对于目前主流的基于字标注的分词方法,该方法的实现和训练更加快速、简单和直接,但却能获得比较接近的分词效果。更显著的是我们可以很容易地从词边界分类方法获得在线分词学习方法,该方法能够使我们的分词系统非常迅速地学习新的标注样本。 相似文献