首页 | 本学科首页   官方微博 | 高级检索  
     

知识增强的自然语言生成研究综述
引用本文:梁明轩,王石,朱俊武,李阳,高翔,焦志翔.知识增强的自然语言生成研究综述[J].计算机科学,2023(S1):11-18.
作者姓名:梁明轩  王石  朱俊武  李阳  高翔  焦志翔
作者单位:1. 扬州大学信息工程学院;2. 中国科学院计算技术研究所
基金项目:北京市科技新星计划交叉学科合作课题(Z191100001119014);;国家重点研发计划重点专项(2017YFC1700300,2017YFB1002300);;国家自然科学基金(61702234)~~;
摘    要:自然语言生成(Natural Language Generation, NLG)任务是自然语言处理(Natural Languge Processing, NLP)任务中的一个子类,并且是一项具有挑战性的任务。随着深度学习在自然语言处理中的大量应用,其已经变成自然语言生成中处理各种任务的主要方法。自然语言生成任务中主要有问答任务、生成摘要任务、生成评论任务、机器翻译任务、生成式对话任务等。传统的生成模型依赖输入文本,基于有限的知识生成文本。为解决这个问题,引入了知识增强的方法。首先介绍了自然语言生成的研究背景和重要模型,然后针对自然语言处理归纳介绍了提高模型性能的方法,以及基于内部知识(如提取关键词增强生成、围绕主题词等)和外部知识(如借助外部知识图谱增强生成)集成到文本生成过程中的方法和架构。最后,通过分析生成任务面临的一些问题,讨论了未来的挑战和研究方向。

关 键 词:自然语言生成  知识增强  深度学习  知识图谱  关键词提取  主题词
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号