排序方式: 共有31条查询结果,搜索用时 93 毫秒
11.
基于语言建模的文本情感分类研究 总被引:4,自引:0,他引:4
提出了一种基于语言建模的文本情感分类的方法.将文本的情感倾向标记为"赞扬"或"批评",可以为文本提供主题之外的语义信息.为此提出了从训练数据中分别估计出代表"赞扬"和"批评"两种情感倾向的语言模型,然后通过比较测试文本自身的语言模型和这两种训练好的情感模型之间的Kullback-Leibler距离,分类测试文本的思路.各个模型的参数分别选用词形特征的unigram和bigram,而相应的参数估计也分别尝试了最大似然和平滑两种策略.当在电影评论语料上和代表不同分类模型的支持向量机及朴素贝叶斯分类器进行比较时,语言建模的方法表现出了较好的分类性能和鲁棒性. 相似文献
12.
13.
14.
15.
本文给出了网络行为的定义,介绍了WinPcap的相关知识,给出了网络行为数据获取程序的设计方法,说明了程序中各部分的相关功能,分析了由程序获取的网络行为数据,解析了邮件数据包的部分内容,验证了程序的部分功能。 相似文献
16.
17.
基于预训练的语言模型在口语理解(SLU)任务中具有优异的性能表现。然而,与人类理解语言的方式相比,单纯的语言模型只能建立文本层级的上下文关联,缺少丰富的外部知识来支持其完成更为复杂的推理。提出一种针对SLU任务的基于Transformer的双向编码器表示(BERT)的联合模型。引入单词级别的意图特征并使用注意力机制为BERT融合外部知识。此外,由于SLU包含意图检测和槽填充2个相互关联的子任务,模型通过联合训练捕捉2个子任务间的关联性,充分运用这种关联性增强外部知识对于SLU任务的性能提升效果,并将外部知识转化为可用于特定子任务的特征信息。在ATIS和Snips 2个公开数据集上的实验结果表明,该模型句子级别的语义准确率分别为89.1%和93.3%,与BERT模型相比,分别提升了0.9和0.4个百分点,能够有效利用外部知识提升自身性能,在SLU任务中拥有比BERT更为优秀的性能表现。 相似文献
18.
19.
社区问答系统中“问答对”的质量评价 总被引:1,自引:0,他引:1
随着互联网的发展,社区问答系统已经成为获取网络信息的一条重要途径,但社区问答系统也存在着"问答对"质量分布不均的问题.本文以百度知道作为研究对像,分析了百度知道中"问答对"的文本特征、统计信息、提问者和回答者之间的关系以及问题和答案的关联度.在分析这些特征的基础上,建立了一个面向社区问答的"问答对"质量分类器,该分类器可以从社区问答系统中自动抽取出高质量的"问答对". 相似文献
20.
双语翻译对在跨语言信息检索、机器翻译等领域有着重要的用途,尤其是专有名词、新词、俚语和术语等的翻译是影响其系统性能的关键因素,但是这些翻译对很难从现有的词典中获得。该文针对维基百科的领域覆盖率和结构特征,提出了一种从维基百科中自动获取高质量中英文翻译对的模板挖掘方法,不但能有效地挖掘出常见的模板,而且能够发现人工不容易察觉的复杂模板。主要方法包括三步: 1)从语言工具栏中直接抽取翻译对,作为进一步挖掘的启发知识;2)在维基百科页面中采用PAT-Array结构挖掘中英翻译对模板;3)利用挖掘的模板在页面中自动挖掘其他中英文翻译对,并进行模板评估。实验结果表明,模板发现翻译对的正确率达90.4%。 相似文献