首页 | 本学科首页   官方微博 | 高级检索  
     

预训练语言模型及其应用(英文)
作者姓名:王海峰  李纪为  Hua Wu  Eduard Hovy  Yu Sun
作者单位:1. Baidu Inc.;2. College of Computer Science and Technology, Zhejiang University;3. Language Technologies Institute, Carnegie Mellon University
摘    要:预训练语言模型(pre-trained languages model, PTLM)在自然语言处理(natural language processing,NLP)领域取得了令人瞩目的成功,并由此引发了下游任务从监督学习到预训练-微调范式的转变。在此之后,一系列预训练模型的创新研究涌现出来。本文系统性、全面的回顾了自然语言处理的代表性工作和最新进展,并按照类别系统性的介绍了自然语言处理领域的预训练模型。首先我们简要介绍了预训练模型,以及不同的模型特点和框架。之后,我们介绍并分析了预训练模型的影响和挑战以及下游任务中的应用。最后,我们简要总结并阐述了预训练模型未来的研究方向。

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号