共查询到20条相似文献,搜索用时 265 毫秒
1.
设计实现了一个基于Lucene的中文分词模块,提出了一种更为有效的中文词处理方法,提高全文检索系统的中文处理能力.整个模块基于当前使用较为广泛的全文检索引擎工具包Lucene,结合正向最大匹配算法以及经过优化的中文分词词典,以实现更高效率和准确度的中文分词功能.在系统评测方面,通过实验仿真比较了该模块与StandardAnalyzer和CJKAnalyzer在功能和效率上的差异.对于如何构建一个高效的中文检索系统,提出了一种实现方案. 相似文献
2.
3.
4.
5.
6.
7.
8.
《电子技术与软件工程》2016,(4)
中文分词是信息提取、信息检索、机器翻译、文本分类、自动文摘、自然语言理解等中文信息处理领域的基础。目前中文分词依然是中文信息处理的瓶颈之一,本文对常见中文分词算法进行研究,并针对警务应用的场景,在经典的Jieba中文分词算法的逆向匹配法基础上提出双向最大匹配法,最后验证改进后的算法在中文分词准确度方面的提升。 相似文献
9.
针对目前网络上不良信息变换不同方式逃脱过滤以及中文分词器分词后存在的问题,提出了基于文本分类技术的信息过滤方法,通过在原有的文本自动分类系统中添加三个过滤模块,以过滤掉无用信息、单个独立字、敏感信息等不良内容,从而保障分类安全高效。 相似文献
10.
中文分词技术的研究现状与困难 总被引:2,自引:0,他引:2
中文分词技术是中文信息处理领域的基础研究课题.而分词对于中文信息处理的诸多领域都是一个非常重要的基本组成部分.首先对中文分词的基本概念与应用,以及中文分词的基本方法进行了概述.然后分析了分词中存在的两个最大困难.最后指出了中文分词未来的研究方向. 相似文献
11.
汉语属于汉藏语系,和英语等语言不同的是:它不是以一个个单词的形式出现,词与词之间没有空格等明显的分割标记。中文分词是现代中文信息处理的基础,是汉语自然语言理解与处理、机器翻译、智能检索、电子词典等信息处理的前提。中文分词系统的好坏将直接影响以中文分词系统为基础的系统的性能。因此对中文分词系统的评测就是一件十分有意义的事。 相似文献
12.
在中文分词领域,基于字标注的方法得到广泛应用,通过字标注分词问题可转换为序列标注问题,现在分词效果最好的是基于条件随机场(CRFs)的标注模型。作战命令的分词是进行作战指令自动生成的基础,在将CRFs模型应用到作战命令分词时,时间和空间复杂度非常高。为提高效率,对模型进行分析,根据特征选择算法选取特征子集,有效降低分词的时间与空间开销。利用CRFs置信度对分词结果进行后处理,进一步提高分词精确度。实验结果表明,特征选择算法及分词后处理方法可提高中文分词识别性能。 相似文献
13.
基于互联网信息平台下,对如何快速准确的进行中文分词进行研究。主要对基于WEB环境下的中文分词建立模型,快速中文分词,自动中文分词进行全面的阐述。 相似文献
14.
当前自动问答系统被广泛的应用,而中文分词的正确率和分词速率将直接影响到问答系统的最终执行效率,这使得中文分词技术的研究逐渐深入。本文通过对分词算法的研究,结合目前常见的几种分词算法,对已有的FMM算法(最大正向匹配算法)做了改进,得到了正向递增匹配算法,并通过实验对该改进算法做出了简单评测。 相似文献
15.
主题搜索是搜索引擎发展的一个新方向。Lucene是目前优秀的搜索引擎开源软件之一。文章以BBS搜索引擎为载体,研究了面向主题搜索引擎的实现和优化,提出了JE中文分词实现方法,针对BBS文本结构特性,改进和优化了Lucene检索评分算法,构建了一套高性能的主题搜索引擎实验系统。通过对水木清华等BBS信息的采集和测试,证明了该主题搜索引擎的性能和效率得到较大改进和提高。 相似文献
16.
17.
18.
19.