首页 | 本学科首页   官方微博 | 高级检索  
     

结合双预训练语言模型的中文文本分类模型
引用本文:原明君,江开忠.结合双预训练语言模型的中文文本分类模型[J].智能计算机与应用,2023(7):1-6+14.
作者姓名:原明君  江开忠
作者单位:上海工程技术大学数理与统计学院
基金项目:全国统计科学研究项目(2020LY080);
摘    要:针对Word2Vec等模型所表示的词向量存在语义模糊从而导致的特征稀疏问题,提出一种结合自编码和广义自回归预训练语言模型的文本分类方法。首先,分别通过BERT、XLNet对文本进行特征表示,提取一词多义、词语位置及词间联系等语义特征;再分别通过双向长短期记忆网络(BiLSTM)充分提取上下文特征,最后分别使用自注意力机制(Self_Attention)和层归一化(Layer Normalization)实现语义增强,并将两通道文本向量进行特征融合,获取更接近原文的语义特征,提升文本分类效果。将提出的文本分类模型与多个深度学习模型在3个数据集上进行对比,实验结果表明,相较于基于传统的Word2Vec以及BERT、XLNet词向量表示的文本分类模型,改进模型获得更高的准确率和F1值,证明了改进模型的分类有效性。

关 键 词:预训练语言模型  双向长短期记忆网络  自注意力机制  层归一化
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号