首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对传统英语翻译机器人在错误文本检测中存在语法纠错准确率低的问题,以英语翻译机器人错误检测系统为研究对象,提出构建一个双编码器的语法错误纠正模型。此模型分别采用Transformer编码器和Bi-GRU编码器对句子上下文信息和源句进行特征提取;之后利用解码器端的门控结构对输入的相关特征信息进行整合,由此实现各个特征与注意力机制的适配。实验结果表明,在CoNLL-2014数据集中,本模型的精确率、召回率和F0.5分别取值为85.42%、42.31%和75.33%,均高于传统的Nested-GRU*模型和SMT+NMT+FST-LM混合模型,本模型的F0.5值比前两者模型分别高出了32.97%和14.62%。且本模型的GLEU值取值为85.93%,超出前两种模型39.14%和25.62%。由此可知,本模型可实现英语翻译机器人语法错误准确检测和纠正,语法纠错精确率高达81.08%,可在英语错误文本检测系统中进行应用。  相似文献   

2.
基于计算机视觉的Transformer研究进展   总被引:1,自引:0,他引:1       下载免费PDF全文
Transformer是一种基于自注意力机制、并行化处理数据的深度神经网络.近几年基于Transformer的模型成为计算机视觉任务的重要研究方向.针对目前国内基于Transformer综述性文章的空白,对其在计算机视觉上的应用进行概述.回顾了Transformer的基本原理,重点介绍了其在图像分类、目标检测、图像分割...  相似文献   

3.
Transformer是一种基于自注意力机制的深度神经网络。近几年,基于Transformer的模型已成为计算机视觉领域的热门研究方向,其结构也在不断改进和扩展,比如局部注意力机制、金字塔结构等。通过对基于Transformer结构改进的视觉模型,分别从性能优化和结构改进两个方面进行综述和总结;也对比分析了Transformer和CNN各自结构的优缺点,并介绍了一种新型的CNN+Transformer的混合结构;最后,对Transformer在计算机视觉上的发展进行总结和展望。  相似文献   

4.
针对多变量时序(Multivariate Time Series, MTS)分类中长序列数据难以捕捉时序特征的问题,提出一种基于双向稀疏Transformer的时序分类模型BST(Bidirectional Sparse Transformer),提高了MTS分类任务的准确度.BST模型使用Transformer框架,构建了一种基于活跃度得分的双向稀疏注意力机制.基于KL散度构建活跃度评价函数,并将评价函数的非对称问题转变为对称权重问题.据此,对原有查询矩阵、键值矩阵进行双向稀疏化,从而降低原Transformer模型中自注意力机制运算的时间复杂度.实验结果显示,BST模型在9个长序列数据集上取得最高平均排名,在临界差异图中领先第2名35.7%,对于具有强时序性的乙醇浓度数据集(Ethanol Concentration, EC),分类准确率提高30.9%.  相似文献   

5.
中文作为一种使用很广泛的文字,因其同印欧语系文字的天然差别,使得汉语初学者往往会出现各种各样的语法错误。本文针对初学者在汉语书写中可能出现的错别字、语序错误等,提出一种自动化的语法纠正方法。首先,本文在自注意力模型中引入复制机制,构建新的C-Transformer模型。构建从错误文本序列到正确文本序列的文本语法错误纠正模型,其次,在公开数据集的基础上,本文利用序列到序列学习的方式从正确文本学习对应的不同形式的错误文本,并设计基于通顺度、语义和句法度量的错误文本筛选方法;最后,还结合中文象形文字的特点,构造同形、同音词表,按词表映射的方式人工构造错误样本扩充训练数据。实验结果表明,本文的方法能够很好地纠正错别字、语序不当、缺失、冗余等错误,并在中文文本语法错误纠正标准测试集上取得了目前最好的结果。  相似文献   

6.
针对传统手写英语字体存在语法错误检测准确率低,导致语法纠错效果不佳的问题。提出基于机器视觉的手写英语自动翻译语法错误检测系统。首先触发采集传感器,利用工业相机对手写英语字体进行拍摄和字体采集;然后利用处理算法对手写英语字体轮廓进行提取和识别定位;之后对识别字体特征进行重排序处理;最后通过训练后的基于BERT的英语语法错误检测模型进行语法错误检测。实验表明,对比于其他语法错误检测模型,本模型在测试集上的检测精确度明显更高,其最高可达90%。在120幅不同类别的英语手写图像中,本系统的英语语法检错正确率高达99.62%,比传统的人工检测方法高出了41.66%,且本系统进行语法错误检测的所用时间控制在25 s以下,相较于人工检测方式低了5倍。由此可知,本系统可实现手写英语字体的准确识别和分类,通过本模型能够提升手写英语语法错误检测率和效率,从而进一步提高了语法纠错效果。  相似文献   

7.
语法纠错任务是自然语言处理领域的一项重要任务,近年来受到了学术界广泛关注。该任务旨在自动识别并纠正文本中所包含的语法、拼写以及语序错误等。该文将语法纠错任务看作是翻译任务,即将带有错误表达的文本翻译成正确的文本,采用基于多头注意力机制的Transformer模型作为纠错模型,并提出了一种动态残差结构,动态结合不同神经模块的输出来增强模型捕获语义信息的能力。受限于目前训练语料不足的情况,该文提出了一种数据增强方法,通过对单语语料的腐化从而生成更多的纠错数据,进一步提高模型的性能。实验结果表明,该文所提出的基于动态残差的模型增强以及腐化语料的数据增强方法对纠错性能有着较大的提升,在NLPCC 2018中文语法纠错共享评测数据上达到了最优性能。  相似文献   

8.
对于传统的图像分类网络而言,卷积神经网络受限于较小且固定的感受野使其忽略了感受野之外的图像特征信息.基于Transformer模型灵活的多头自注意力机制使得其必须依赖于巨大的数据量以减少过拟合的风险,导致模型参数与计算复杂度过于庞大.针对上述问题本文提出了一种名为CSNet的多阶段图像分类模型.在模型浅层阶段利用大核卷积分解的思想扩大卷积层感受野以学习较大范围的特征信息.在深层阶段利用一种高效的自注意力机制,将卷积运算的特性加入自注意力机制中,有效减少了原始自注意力机制局部计算冗余和过分依赖数据的问题.CSNet在CIFAR-10和ImageNet-1K数据集上的分类准确率分别达到98.9%和82.6%,实验表明CSNet的模型性能优于ResNet和Vision Transformer.  相似文献   

9.
为解决目前基于卷积网络的关键点检测模型无法建模远距离关键点之间关系的问题,提出一种Transformer与CNN(卷积网络)多分支并行的人像关键点检测网络,称为MCTN(multi-branch convolution-Transformer network),其利用Transformer的动态注意力机制建模关键点之间的远距离联系,多分支并行的结构设计使得MCTN包含共享权重、全局信息融合等特点。此外,提出一种新型的Transformer结构,称为Deformer,它可以将注意力权重更快地集中在稀疏且有意义的位置,解决Transformer收敛缓慢的问题;在WFLW、300W、COFW数据集的人像关键点检测实验中,归一化平均误差分别达到4.33%、3.12%、3.15%,实验结果表明,MCTN利用Transformer与CNN多分支并联结构和Deformer结构,性能大幅超越基于卷积网络的关键点检测算法。  相似文献   

10.
针对传统英语翻译的语法纠错系统存在英语语法错误检测准确率低,纠正效果不佳的问题,提出一种基于Seq2Seq神经网络的英语翻译语法纠错模型。首先,采用Seq2Seq神经网络中的Encode部分对输入序列进行建模,并输出此序列的语义向量;然后在Decode部分引入Attention机制,实现原始序列到目标序列的直接映射,从而完成英语语法纠错。实验结果表明,在CoNLL2018数据集的英语语法纠错测试结果中,本模型的准确率、召回率和F0.5值分别为35.44%、40.68%和32.56%,均高于传统CAMB语法纠错模型。在英语冠词错误纠正结果中,本方法的F0.5取值为32.36%,比传统UIUC方法和Corpus GEC方法高出了7.02%和2.76%;介词错误纠错实验中,本方法比另外两种方法高出了5.91%和13.15%。综合分析可知,本模型对英语翻译语法纠错准确率和精度更高,对比于传统的语法纠错模型纠错效果更好,可在英语翻译机器人语法纠错系统中进行广泛应用和推广。  相似文献   

11.
针对英语翻译器语音自动翻译纠正准确率的问题,结合卷积神经网络(Convolutional Neural Networks, CNN)和Transformer模型,提出基于CNN+Transformer端到端的自动翻译纠正模型。模型通过利用CNN模型平移和旋转不变性的特点,以缓解语音信号的多变性,并结合Transformer模型的多头自注意力机制兼顾语音特征和距离特征帧之间的依赖关系,进而提高模型的并行计算能力,实现了高效、准确的英语翻译器语音自动翻译纠正。最后,通过在CCMT2019-BSTC数据集上进行仿真,验证了所提CNN+Transformer模型的有效性。仿真结果表明,所提CNN+Transformer模型具有良好的语音自动翻译效果,BLEU值为19.23,参数规模和训练时长分别为18.99 M和5.4 min,相较于当下常用端到端翻译模型seq2seq模型、级联翻译模型NMT模型和cascade模型,具有更好的翻译效果,且具有一定的有效性和优越性,可用于实际英语翻译器语音自动翻译。  相似文献   

12.
针对传统循环神经网络和卷积神经网络的缺点,搭建完全基于多头自注意力机制的Transformer蒙汉神经机器翻译模型。实验结果表明,该模型比基于LSTM的蒙汉翻译模型提高了9个BLEU值左右。这说明Transformer翻译模型在句子语义提取和语义表达方面优于LSTM翻译模型。同时在语料预处理阶段,还对中蒙文语料进行了不同粒度的切分。通过实验对比分析,蒙文进行BPE处理后的翻译结果优于对中文单独使用分词处理的结果;在较小语料库中,对中文进行分字处理效果优于分词效果。  相似文献   

13.
基于BERT的常见作物病害问答系统问句分类   总被引:1,自引:0,他引:1  
杨国峰  杨勇 《计算机应用》2020,40(6):1580-1586
问句分类作为问答系统的关键模块,也是制约问答系统检索效率的关键性因素。针对农业问答系统中用户问句语义信息复杂、差异大的问题,为了满足用户快速、准确地获取常见作物病害问句的分类结果的需求,构建了基于BERT的常见作物病害问答系统的问句分类模型。首先,对问句数据集进行预处理;然后,分别构建双向长短期记忆(Bi-LSTM)自注意力网络分类模型、Transformer分类模型和基于BERT的微调分类模型,并利用三种模型提取问句的信息,进行问句分类模型的训练;最后,对基于BERT的微调分类模型进行测试,同时探究数据集规模对分类结果的影响。实验结果表明,基于BERT的微调常见作物病害问句分类模型的分类准确率、精确率、召回率、精确率和召回率的加权调和平均值分别高于双向长短期记忆自注意力网络模型和Transformer分类模型2~5个百分点,在常见作物病害问句数据集(CCDQD)上能获得最高准确率92.46%,精确率92.59%,召回率91.26%,精确率和召回率的加权调和平均值91.92%。基于BERT的微调分类模型具有结构简单、训练参数少、训练速度快等特点,并能够高效地对常见作物病害问句准确分类,可以作为常见作物病害问答系统的问句分类模型。  相似文献   

14.
Transformer是基于自注意力机制的编码器-解码器架构模型,擅长建立远距离依赖关系,已经成为自然语言处理领域的主流模型.受Transformer在自然语言处理领域中取得巨大成功的启发,近两年一些开创性的工作开始研究如何将Transformer应用于计算机视觉领域,并取得了显著的成果,目前视觉Transformer依然是研究的热点.本文对近年来Transformer在多个视觉任务上的应用与发展进行梳理、分析与总结.首先阐述了视觉Transformer基本结构与实现原理,分析了模型结构的特点与优势,梳理了视觉Transformer的研究进展.其次,介绍了Transformer在高层视觉任务、底层视觉任务和多模态任务上的典型应用模型,并详细对比了在图像分类、检测和分割领域典型视觉Transformer模型的性能指标.最后总结了当前视觉Transformer各类模型存在的问题与难点,并指出未来的发展方向.  相似文献   

15.
语法纠错任务旨在通过自然语言处理技术自动检测并纠正文本中的语序、拼写等语法错误。当前许多针对汉语的语法纠错方法已取得较好的效果,但往往忽略了学习者的个性化特征,如二语等级、母语背景等。因此,该文面向汉语作为第二语言的学习者,提出个性化语法纠错,对不同特征的学习者所犯的错误分别进行纠正,并构建了不同领域汉语学习者的数据集进行实验。实验结果表明,将语法纠错模型适应到学习者的各个领域后,性能得到明显提升。  相似文献   

16.
近年来,卷积神经网络(convolutional neural networks,CNN)在农作物分类研究中不断取得新进展,但在建模长期依赖关系方面表现出一定的局限性,对农作物全局特征的捕获存在不足。针对以上问题,将Transformer引入Deeplab v3+模型,提出了一种用于无人机影像农作物分类的并行分支结构——DeepTrans(Deeplab v3+with Transformer)模型。DeepTrans以一种并行的方式将Transformer和CNN结合在一起,利于全局特征与局部特征的有效捕获。通过引入Transformer来增强图像中信息的远距离依赖关系,提高了作物全局信息的提取能力;加入通道注意力机制和空间注意力机制加强Transformer对通道信息的敏感度及ASPP(atrous spatial pyramid pooling)对作物空间信息捕获能力。实验结果表明,DeepTrans模型在MIoU指标上可达0.812,相较于Deeplab v3+模型提高了3.9%,该模型在五类作物的分类中精度均有提升,对于容易错分的甘蔗、玉米和香蕉三种作物,其IoU分别提高了2...  相似文献   

17.
以文本识别为基础,进行英语语法自动纠错时,往往依靠人眼识别方式,使得自动纠错系统的F0.5值较低。因此,提出基于机器视觉的英语语法自动纠错系统设计。硬件方面,针对CCD相机和存储器进行设计。软件方法,针对包含英语文本内容的图像,运用机器视觉技术设计一种自动化文本识别算法,准确提取待处理的文本信息。依托于英语翻译原理提取语法特征,并以此为基础创建语法错误检测方法。选取seq2seq模型作为基本框架,结合Soft Attention机制,构建英语语法自动纠错模型。再引入反馈过滤机制,对自动纠错结果进行检验。系统测试结果表明:所提出的纠错系统F0.5值保持在0.5以上,且对于长句子的语法纠错效果强于短句子,满足了英语语法自动纠错需求。  相似文献   

18.
交通流预测是智能交通系统中实现城市交通优化的一种重要方法,准确的交通流量预测对交通管理和诱导具有重要意义.然而,因交通流本身存在高度时空依赖性而表现出复杂的非线性特征,现有的方法主要考虑路网中节点的局部时空特征,忽略了路网中所有节点的长期时空特征.为了充分挖掘交通流数据复杂的时空依赖,提出一种融合多种时空自注意力机制的Transformer交通流预测模型(MSTTF).该模型在嵌入层通过位置编码嵌入时间和空间信息,并在注意力机制层融合邻接空间自注意力机制,相似空间自注意力机制,时间自注意力机制,时间-空间自注意力机制等多种自注意力机制挖掘数据中潜在的时空依赖关系,最后在输出层进行预测.结果表明, MSTTF模型与传统时空Transformer相比, MAE平均降低了10.36%.特别地,相比于目前最先进的PDFormer模型, MAE平均降低了1.24%,能取得更好的预测效果.  相似文献   

19.
针对现有小目标跟踪算法的鲁棒性差、精度及成功率低的问题,提出一种基于孪生网络和Transformer的小目标跟踪算法SiamTrans。首先,基于Transformer机制设计一种相似度响应图计算模块。该模块叠加若干层特征编码-解码结构,并利用多头自注意力机制和多头跨注意力机制在不同层次的搜索区域特征图中查询模板特征图信息,从而避免陷入局部最优解,并获得一个高质量的相似度响应图;其次,在预测子网中设计一个基于Transformer机制的预测模块(PM),并利用自注意力机制处理预测分支特征图中的冗余特征信息,以提高不同预测分支的预测精度。在Small90数据集上,相较于TransT(Transformer Tracking)算法,所提算法的跟踪精度和跟踪成功率分别高8.0和9.5个百分点。可见,所提出的算法具有更优异的小目标跟踪性能。  相似文献   

20.
曹建乐  李娜娜 《计算机应用》2023,(12):3703-3710
由于自然语言的复杂语义、词的多情感极性以及文本的长期依赖关系,现有的文本情感分类方法面临严峻挑战。针对这些问题,提出了一种基于多层次注意力的语义增强情感分类模型。首先,使用语境化的动态词嵌入技术挖掘词汇的多重语义信息,并且对上下文语义进行建模;其次,通过内部注意力层中的多层并行的多头自注意力捕获文本内部的长期依赖关系,从而获取全面的文本特征信息;再次,在外部注意力层中,将评论元数据中的总结信息通过多层次的注意力机制融入评论特征中,从而增强评论特征的情感信息和语义表达能力;最后,采用全局平均池化层和Softmax函数实现情感分类。在4个亚马逊评论数据集上的实验结果表明,与基线模型中表现最好的TE-GRU(Transformer Encoder with Gated Recurrent Unit)相比,所提模型在App、Kindle、Electronic和CD数据集上的情感分类准确率至少提升了0.36、0.34、0.58和0.66个百分点,验证了该模型能够进一步提高情感分类性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号