排序方式: 共有16条查询结果,搜索用时 15 毫秒
1.
少样本文本分类中,原型网络对语义利用不足、可迁移特征挖掘不够,导致模型泛化能力不强,在新任务空间中分类性能不佳。从模型结构、编码网络、度量网络等角度提高模型泛化性,提出多任务原型网络(multiple-task prototypical network,MTPN)。结构上,基于原型网络度量任务增加辅助分类任务约束训练目标,提高了模型的语义特征抽取能力,利用多任务联合训练,获得与辅助任务更相关的语义表示。针对编码网络,提出LF-Transformer编码器,使用层级注意力融合底层通用编码信息,提升特征的可迁移性。度量网络使用基于BiGRU的类原型生成器,使类原型更具代表性,距离度量更加准确。实验表明,MTPN在少样本文本情感分类任务中取得了91.62%的准确率,比现有最佳模型提升了3.5%以上;在新领域的情感评论中,基于五条参考样本,模型对查询样本可获得超过90%的分类准确率。 相似文献
2.
传统的属性级别情感分析方法缺乏对属性实体与前后文之间交互关系的研究,导致情感分类结果的正确率不高。为了有效提取文本特征,提出了一种利用多头注意力机制学习属性实体与前后文之间关系的属性级别情感分析模型(intra&inter multi-head attention network, IIMAN),从而提高情感极性判断结果。该模型首先利用BERT预训练完成输入语句的词向量化;通过注意力网络中的内部多头注意力与联合多头注意力学习属性实体与前后文以及前后文内部间的关系;最后通过逐点卷积变换层、面向属性实体的注意力层和输出层完成情感极性分类。通过在三个公开的属性级别情感分析数据集Twitter、laptop、restaurant上的实验证明,IIMAN相较于其他基线模型,正确率和F1值有了进一步的提升,能够有效提高情感极性分类结果。 相似文献
3.
稀疏网络的传统链接预测准确率低,为了捕捉稀疏网络节点间建立链接的可能性,提出基于节点间最短路径的最简子图概念。最简子图反映了节点间的拓扑紧密关系,在采用node2vec节点向量化方法的基础之上,实现了基于最短路径的链接表示,并采取长短期记忆循环神经网络(LSTM)学习长链接节点序列的特征,最终实现链接的分类。实验结果表明,该方法与已有方法相比,在4种不同数据集上的预测AUC值平均提高了11.6%,AP值平均提高了13.3%。 相似文献
4.
针对长文本自动摘要任务中抽取式模型摘要较为冗余,而生成式摘要模型时常有关键信息丢失、摘要不准确和生成内容重复等问题,提出一种面向长文本的基于优势演员-评论家算法的强化自动摘要模型(A2C-RLAS)。首先,用基于卷积神经网络(CNN)和循环神经网络(RNN)的混合神经网络的抽取器(extractor)来提取原文关键句;然后,用基于拷贝机制和注意力机制的重写器(rewriter)来精炼关键句;最后,使用强化学习的优势演员-评论家(A2C)算法训练整个网络,把重写摘要和参考摘要的语义相似性(BERTScore值)作为奖励(reward)来指导抽取过程,从而提高抽取器提取句子的质量。在CNN/Daily Mail数据集上的实验结果表明,与基于强化学习的抽取式摘要(Refresh)模型、基于循环神经网络的抽取式摘要序列模型(SummaRuNNer)和分布语义奖励(DSR)模型等模型相比,A2C-RLAS的最终摘要内容更加准确、语言更加流畅,冗余的内容有效减少,且A2C-RLAS的ROUGE和BERTScore指标均有提升。相较于Refresh模型和SummaRuNNer模型,A2C-RLAS模型的ROUGE-L值分别提高了6.3%和10.2%;相较于DSR模型,A2C-RLAS模型的F1值提高了30.5%。 相似文献
5.
在异构社会网络中,合著关系的预测是具有代表性的一类关系预测,与同构网络的链接预测方法在节点表示、网络构造等方面存在较大差异。综合考虑异构社会网络特有的元路径信息和节点属性特征,提出了节点的复合向量化表示:将节点的TF-IDF特征与基于Metapath2vec算法的向量化表示相结合;在元路径的表示上采取元路径中同类型节点归并重构的方法,以提取元路径中同类型节点间的隐含信息;并通过卷积神经网络(CNN)实现学术网络的合著关系预测。实验结果表明,节点的复合向量化表示及重构元路径方法可以更好地表征异构社会网络,与其他方法对比中均获得更好的预测评价指标。 相似文献
6.
Internet流量的多重分形分析 总被引:3,自引:0,他引:3
通过两组含网络蠕虫的非正常流量,首先分析了多组构造的数据流的多重分形谱,讨论了与TCP拥塞控制机制的关系。之后讨论了非正常流量的扩展自相似性,展示了它与多重分形谱一致性的特点。 相似文献
7.
8.
9.
已有DGA检测方法已经获得了较高的检测精度,但在缩略域名上存在误报率高的问题。主要原因是缩略域名字符间随机性高,现有检测方法从随机性角度很难有效地区分缩略域名和DGA域名。在分析了缩略域名的字符特性后,基于自注意力机制实现了域名字符依赖性的检测;并采用LSTM改进了Transformer模型的编码方式,以更好地捕获域名中字符位置信息;基于Transformer模型构建了DGA域名检测方法(MHA)。实验结果表明,MHA可以有效地区分出DGA域名和缩略域名,得到了更高的精确率和更低的误报率。 相似文献
10.