首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 27 毫秒
1.
陈晨  王亚立  乔宇 《集成技术》2020,9(3):15-25
传统基于度量学习的图像小样本分类方法与任务无关,这导致模型对新查询任务的泛化能力 较差。针对该问题,该研究提出一种任务相关的图像小样本深度学习方法——可以根据查询任务自适 应地调整支持集样本特征,从而有效形成任务相关的度量分类器。同时,该研究通过引入多种正则化 方法,解决了数据量严重不足所带来的过拟合问题。基于 miniImageNet 和 tieredImageNet 两个常用标 准数据集,在特征提取网络相同的前提下,所提出方法在 miniImageNe 中 1-shot 上获得了 66.05% 的 准确率,较目前最好的模型提高了 4.29%。  相似文献   

2.
文本意图识别任务中常面临训练数据不足的问题,且由于文本数据离散性导致在标签不变的条件下进行数据增强并提高原模型性能具有一定困难,为解决小样本意图识别任务中的上述问题,提出一种分步式数据增强与阶段性训练策略相结合的方法.该方法从全局和局部两个角度将原始数据在全体语句和同类别中的样本对上进行递进式增强,并在模型训练期间根据递进层次的不同划分阶段进行学习,最后在多个意图识别数据集上进行实验以评估其有效性.实验结果表明,该方法可以有效提高小样本环境中意图识别模型的准确率,同时模型的稳定性也得到了提升.  相似文献   

3.
在线课堂已成为当前最重要的教学场景之一.针对当前基于视觉特征学习和距离度量学习的参与度识别模型仍然缺乏足够的判别力和稳定性等问题,本文将有序深度度量学习方法引入课堂参与度识别任务,联合建模视觉特征学习和判别度量学习.首先,提出一个有序度量损失函数建模参与度样本的有序标签结构,使得在学习获得的有序度量空间中,视觉特征与其参与度标签保持有序一致性,提高识别模型的判别力.其次,提出一种四元组困难样本构造策略,对困难正样本的视觉特征相似度进行最小化,同时最大化困难负样本的视觉特征相似度,充分挖掘困难样本,提高模型训练的效率和稳定性.最后在课堂参与度基准数据集DAiSEE上进行测试,验证了算法的有效性.  相似文献   

4.
针对由于甲骨文中部分字符的出现频率较低,直接利用深度神经网络进行识别会产生严重的过拟合现象,进而导致识别精度较差的问题,本文提出一种基于监督对比学习的小样本甲骨文字识别方法。选用利用增强样本的Y型(ensemble augmented-shot Y-shaped,EASY)学习框架作为网络的主干部分,通过集合数据增强、多骨干网络集成、特征向量投影等训练策略,直接实现利用少量带标签样本进行识别;引入监督对比学习,并提出联合对比损失,使得特征空间中类内特征向量距离更近,类间特征向量距离更远,进一步提高模型性能。实验结果表明:相比于当前效果最好的Orc-Bert模型,提出的小样本甲骨文识别模型在1-shot任务中的准确率提升了26.42%,3-shot任务的准确率提升了28.55%,5-shot任务的准确率提升了23.98%,较好解决了低频率出现的甲骨文字识别精度较差的问题。  相似文献   

5.
人物交互(HOI)识别是计算机视觉领域的重要研究热点.随着深度学习在图像分类任务中的巨大成功,人物交互识别任务也取得重大进展,但样本不平衡和组合爆炸问题仍是制约当前人物交互识别任务性能的关键挑战.由此,将人物交互识别任务与少样本学习相结合,将人物交互识别任务定义为一个少样本任务,并提出了任务感知双原型网络(TDP-Net)来解决少样本人物交互任务.具体地,首先使用图方法为每个任务生成语义感知的任务表示作为任务的先验信息,并使用语义图注意力模块(SGA-Module)生成注意力权重,对特征图中不同区域进行不同重要程度的关注,以适应不同任务条件下的映射关系,实现在新任务中自动推理.此外,还设计了一个双路原型模块(DP-Module)以分别产生交互类别的动作类原型和物体类原型,并分别对动词和名词进行分类.通过分别为动作和物体建立类原型,有效地分离了动作和物体间复杂的视觉关系.同时由于人物交互类别之间具有相似性,可通过重新组合动作和物体类别将知识迁移到新的交互类别中.实验结果表明,该模型在人物交互少样本任务上的平均准确率比基线方法在两个实验设置上分别提高了3.2个百分点和15.7个百分点,验证了TDP-Net在少样本人物交互任务中的有效性.  相似文献   

6.
充分利用Focal损失函数具有挖掘困难样本和调节样本不平衡问题的特性,将其应用在基于神经网络的图像情感分析模型中。为了缓解训练数据集的类别样本不平衡问题,提升情感分类模型的训练效率,对Focal损失函数中参数设置进行了改进。该方法通过类别权重大小来确定平衡参数[α],并在神经网络模型训练的不同阶段,采用渐增方式对聚焦因子[γ]进行调节,然后将改进的Focal损失函数应用于图像情感分析模型的神经网络训练中。仿真实验表明,相比于交叉熵损失函数,改进的Focal损失函数能够提升神经网络对图像情感分析的性能。实验结果表明,所采用方法的准确率、宏召回率、宏精准率分别提升了0.5~2.3个百分点、0.4~3.9个百分点、0.5~3.3个百分点。  相似文献   

7.
文本分类任务通常依赖足量的标注数据,针对低资源场景下的分类模型在小样本上的过拟合问题,提出一种基于提示学习的小样本文本分类方法 BERT-P-Tuning。首先,利用预训练模型BERT(Bidirectional Encoder Representations from Transformers)在标注样本上学习到最优的提示模板;然后,在每条样本中补充提示模板和空缺,将文本分类任务转化为完形填空任务;最后,通过预测空缺位置概率最高的词并结合它与标签之间的映射关系得到最终的标签。在公开数据集FewCLUE上的短文本分类任务上进行实验,实验结果表明,所提方法相较于基于BERT微调的方法在评价指标上有显著提高。所提方法在二分类任务上的准确率与F1值分别提升了25.2和26.7个百分点,在多分类任务上的准确率与F1值分别提升了6.6和8.0个百分点。相较于手动构建模板的PET(Pattern Exploiting Training)方法,所提方法在两个任务上的准确率分别提升了2.9和2.8个百分点,F1值分别提升了4.4和4.2个百分点,验证了预训练模型应用在小样本任务的有效性。  相似文献   

8.
对样本所含信息的提取能力决定网络模型进行小样本分类的效果,为了进一步提高模型挖掘信息的能力,提出一种结合多尺度特征与掩码图网络的小样本学习方法。设计由1×1卷积、全局平均池化和跳跃连接组成的最小残差神经网络块,与卷积块拼接成特征提取器,以提取样本不同尺度的特征,并通过注意力机制将不同尺度特征融合;使用融合的多尺度特征构建包含结点与边特征的图神经网络,并在其中加入一个元学习器(meta-learner)用于生成边的掩码,通过筛选边特征来指导图结点聚类与更新,进一步强化样本特征;通过特征贡献度和互斥损失改进类在嵌入空间表达特征的求解过程,提升模型度量学习能力。在MiniImagenet数据集上,该方法 1-shot准确率为61.4%,5-shot准确率为78.6%,分别超过传统度量学习方法 12.0个百分点与10.4个百分点;在Cifar-100数据集上分别提升9.7个百分点和6.0个百分点。该方法有效提升了小样本学习场景下的模型分类准确率。  相似文献   

9.
人工智能已被广泛应用于网络入侵检测系统.然而由于流量样本存在概念漂移现象,用于恶意流量识别的模型必须频繁更新以适应新的特征分布.更新后模型的有效性依赖新增训练样本的质量,所以防止数据污染尤为重要.然而目前流量样本的污染过滤工作仍依赖专家经验,这导致在模型更新过程中存在样本筛选工作量大、模型准确率不稳定、系统易受投毒攻击等问题.现有工作无法在保证模型性能的同时实现污染过滤或模型修复.为解决上述问题,为智能网络入侵检测系统设计了一套支持污染数据过滤的通用模型更新方法.首先设计了EdgeGAN算法,利用模糊测试使生成对抗网络快速拟合模型边缘样本分布.然后通过检查新增训练样本与原模型的MSE值和更新后模型对旧边缘样本的F\\-β分数,识别出污染样本子集.通过让模型学习恶意边缘样本,抑制投毒样本对模型的影响,保证模型在中毒后快速复原.最后通过在5种典型智能网络入侵检测系统上的实验测试,验证了提出的更新方法在污染过滤与模型修复上的有效性.对比现有最先进的方法,新方法对投毒样本的检测率平均提升12.50%,对中毒模型的修复效果平均提升6.38%.该方法适用于保护任意常见智能网络入侵检测系统的更新过程,可减少人工样本筛选工作,有效降低了投毒检测与模型修复的代价,对模型的性能和鲁棒性起到保障作用.新方法也可以用于保护其他相似的智能威胁检测模型.  相似文献   

10.
为定量评价使用生成对抗网络生成的恒星和星系图像的质量,提出了感知损失函数与Mode score相结合的双样本评价方法。通过对几种常用的生成图像定量评价方法的优缺点的分析以及对感知损失函数进行的改进,得到了能够定量评价生成图像多样性和视觉质量的双样本评价模型。为了验证提出方法的有效性,分别采用Inception score,Kernal MMD,Wasse-rstein distance及双样本评价方法对生成的两种分辨率的恒星和星系图像进行评价,并将评价结果进行了对比分析。结果表明双样本评价方法能够全面且客观的评价生成的恒星和星系图像,对利用生成的天文图像预测未知的恒星和星系具有重要意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号