首页 | 本学科首页   官方微博 | 高级检索  
     

基于深度学习的自然语言处理鲁棒性研究综述
引用本文:桂韬,奚志恒,郑锐,刘勤,马若恬,伍婷,包容,张奇.基于深度学习的自然语言处理鲁棒性研究综述[J].计算机学报,2024(1):90-112.
作者姓名:桂韬  奚志恒  郑锐  刘勤  马若恬  伍婷  包容  张奇
作者单位:1. 复旦大学现代语言学研究院;2. 复旦大学计算机科学技术学院
基金项目:国家自然科学基金(62206057,62076069,61976056)资助;
摘    要:近年来,基于深度神经网络的模型在几乎所有自然语言处理任务上都取得了非常好的效果,在很多任务上甚至超越了人类.展现了极强能力的大规模语言模型也为自然语言处理模型的发展与落地提供了新的机遇和方向.然而,这些在基准测试集合上取得很好结果的模型在实际应用中的效果却经常大打折扣.近期的一些研究还发现,在测试数据上替换一个相似词语、增加一个标点符号,甚至只是修改一个字母都可能使得这些模型的预测结果发生改变,效果大幅度下降.即使是大型语言模型,也会因输入中的微小扰动而改变其预测结果.什么原因导致了这种现象的发生?深度神经网络模型真的如此脆弱吗?如何才能避免这种问题的出现?这些问题近年来受到了越来越多的关注,诸多有影响力的工作都不约而同地从不同方面讨论了自然语言处理的鲁棒性问题.在本文中,我们从自然语言处理任务的典型范式出发,从数据构建、模型表示、对抗攻防以及评估评价等四个方面对自然语言处理鲁棒性相关研究进行了总结和归纳,并对最新进展进行了介绍,最后探讨了未来的可能研究方向以及我们对自然语言处理鲁棒性问题的一些思考.

关 键 词:自然语言处理  鲁棒性  深度学习  预训练语言模型  对抗攻防
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号