首页 | 本学科首页   官方微博 | 高级检索  
     

面向鲁棒口语理解的声学组块混淆语言模型微调算法
引用本文:李荣军,郭秀焱,杨静远.面向鲁棒口语理解的声学组块混淆语言模型微调算法[J].智能系统学报,2023,18(1):131-137.
作者姓名:李荣军  郭秀焱  杨静远
作者单位:华为技术有限公司 AI应用研究中心,广东 深圳 518129
摘    要:利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果。但是,当将其应用于口语语言理解(spoken language understanding,SLU)任务时,由于前端语音识别(automatic speech recognition,ASR)的错误,会导致SLU精度的下降。因此,本文研究如何增强PLM提高SLU模型对ASR错误的鲁棒性。具体来讲,通过比较ASR识别结果和人工转录结果之间的差异,识别出连读和删除的文本组块,通过设置新的预训练任务微调PLM,使发音相近的文本组块产生类似的特征嵌入表示,以达到减轻ASR错误对PLM影响的目的。通过在3个基准数据集上的实验表明,所提出的方法相比之前的方法,精度有较大提升,验证方法的有效性。

关 键 词:自然语言理解  口语语言理解  意图识别  预训练语言模型  语音识别  鲁棒性  语言模型微调  深度学习

A fine-tuning algorithm for acoustic text chunk confusion language model orienting to understand robust spoken language
LI Rongjun,GUO Xiuyan,YANG Jingyuan.A fine-tuning algorithm for acoustic text chunk confusion language model orienting to understand robust spoken language[J].CAAL Transactions on Intelligent Systems,2023,18(1):131-137.
Authors:LI Rongjun  GUO Xiuyan  YANG Jingyuan
Affiliation:AI Application Research Center, Huawei Technologies Co., Ltd., Shenzhen 518129, China
Abstract:
Keywords:natural language understanding  spoken language understanding  intent recognition  pre-trained language model  speech recognition  robust  fine-tuning of language model  deep learning
点击此处可从《智能系统学报》浏览原始摘要信息
点击此处可从《智能系统学报》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号