首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
  国内免费   7篇
综合类   1篇
机械仪表   1篇
自动化技术   8篇
  2022年   1篇
  2021年   2篇
  2019年   1篇
  2018年   3篇
  2017年   1篇
  2014年   1篇
  2010年   1篇
排序方式: 共有10条查询结果,搜索用时 31 毫秒
1
1.
为提高仅包含少量训练样本的图像识别准确率,利用卷积神经网络作为图像的特征提取器,提出一种基于卷积神经网络的小样本图像识别方法。在原始小数据集中引入数据增强变换,扩充数据样本的范围;在此基础上将大规模数据集上的源预训练模型在目标小数据集上进行迁移训练,提取除最后全连接层之外的模型权重和图像特征;结合源预训练模型提取的特征,采用层冻结方法,微调目标小规模数据集上的卷积模型,得到最终分类识别结果。实验结果表明,该方法在小规模图像数据集的识别问题中具有较高的准确率和鲁棒性。  相似文献   
2.
针对大量眼底图片难以收集和标注、有经验的眼科医生地区分配不均匀等,导致眼底疾病患者检查准确度低、花费时间较长等问题,本文基于迁移学习提出一种图像分类方法:首先修改EfficientNet-B0和EfficientNet-B7模型并进行参数微调,将微调后的模型作为特征提取器用于提取眼底图像的特征,再对提取的特征进行特征融合并使用DNN分类器实现最终分类,同时使用加权梯度类激活映射可视化解释模型诊断异常的原因。提出的方法在内部数据上十折交叉验证得到的平均准确度、灵敏度和AUC分别为95.74%,96.46%,0.987,在公开数据集JSIEC上获得97.04%的准确度和97.14%的灵敏度。结果表明该方法可用于大规模筛查异常眼底,辅助医生实现高效诊断。  相似文献   
3.
小样本学习研究综述   总被引:1,自引:0,他引:1  
小样本学习旨在通过少量样本学习到解决问题的模型.近年来在大数据训练模型的趋势下,机器学习和深度学习在许多领域中取得了成功.但是在现实世界中的很多应用场景中,样本量很少或者标注样本很少,而对大量无标签样本进行标注工作将会耗费很大的人力.所以,如何用少量样本进行学习就成为了目前人们需要关注的问题.本文系统梳理了当前小样本学习的相关工作,具体介绍了基于模型微调、基于数据增强和基于迁移学习三大类小样本学习模型与算法的研究进展;本文将基于数据增强的方法细分为基于无标签数据、基于数据合成和基于特征增强三类,将基于迁移学习的方法细分为基于度量学习、基于元学习和基于图神经网络三类.本文还总结了目前常用的小样本数据集,以及代表性的小样本学习模型在这些数据集上的实验结果,随后对小样本学习的现状和挑战进行了概述,最后展望了小样本学习的未来发展方向.  相似文献   
4.
基于迁移学习的水产动物图像识别方法   总被引:1,自引:0,他引:1  
王柯力  袁红春 《计算机应用》2018,38(5):1304-1308
针对传统水产动物图像识别方法步骤复杂、准确率差、泛化性差,而深度卷积神经网络(DCNN)模型开发难度大等问题,提出一种基于参数迁移策略采用微调方式再训练源模型的方法。首先,对图像进行数据增强等预处理;然后,在修改源模型全连接分类层的基础上,进一步将高层卷积模块的权重设置为可训练以进行自适应调整;最后,以验证集识别率与训练时间作为评估指标,针对不同源模型采用不同的可训练参数占比进行性能实验。实验结果表明,通过再训练得到的图像识别模型准确率可达到97.4%,相比源模型最多可提高20个百分点;在可训练参数占比为75%左右时可得到较理想的性能。通过实验证实了采用微调方法可以在低成本开发条件下得到性能良好的深度神经网络图像识别模型。  相似文献   
5.
深度自动编码器的研究与展望   总被引:1,自引:0,他引:1  
深度学习是机器学习的一个分支,开创了神经网络发展的新纪元。作为深度学习结构的主要组成部分之一,深度自动编码器主要用于完成转换学习任务,同时在无监督学习及非线性特征提取过程中也扮演着至关重要的角色。首先介绍深度自动编码器的发展由来、基本概念及原理,然后介绍它的构建方法以及预训练和精雕的一般步骤,并对不同类型深度自动编码器进行总结,最后在深入分析深度自动编码器目前存在的问题的基础上,对其未来发展趋势进行展望。  相似文献   
6.
几何约束求解的方法关系到特征造型系统的性能,为提高几何约束求解的速度,将和声搜索算法应用于几何约束求解中。通过优先选择较小的和声库,利用最好解的评价值确定微调扰动的幅度,并将其嵌入到拉斯维加斯算法中,提高了和声搜索算法的性能。实验结果表明,改进的和声算法具有自适应性,能有效克服局部收敛问题,提高了求解速度。  相似文献   
7.
问题复述识别旨在召回“同质异构”的问句对子(语义相同表述迥异的问句)和摒弃语义无关的噪声问句,对输入的问句对进行“是复述”和“非复述”的二相判别。现有预训练语言模型(如BERT、RoBERTa和MacBERT)被广泛应用于自然语言的语义编码,并取得了显著的性能优势。然而,其优势并未在问句复述问题的求解中得到充分的体现,原因在于: ①预训练语言模型对特定任务中精细的语义表示需求并不敏感; ②复述样本的“是与非”往往取决于极为微妙的语义差异。微调预训练语言模型成为提高其任务适应性的关键步骤,但其极大地依赖训练数据的数量(多样性)与质量(可靠性)。为此,该文提出一种基于生成模型的定向数据增强方法(DDA)。该方法能够利用诱导标签对神经生成网络进行引导,借以自动生成多样的复述和非复述的增强样本(即高迷惑性的异构样本),促进训练数据的自动扩展。此外,该文设计了一种多模型集成的标签投票机制,并用其修正增强样本的潜在标签错误,以此提高扩展数据的可靠性。在中文问题复述数据集LCQMC上的实验结果证明,与传统数据增强方法相比,该文方法生成的样本质量更高,且语义表达更加多元化。  相似文献   
8.
针对传统的视网膜图像处理步骤复杂、泛化性差、缺少完整的自动识别系统等问题,提出了一套完整的基于深度神经网络的视网膜图像自动识别系统。首先,对图像进行去噪、归一化、数据扩增等预处理;然后,设计了紧凑的神经网络模型——CompactNet,CompactNet继承了AlexNet的浅层结构参数,深层网络参数则根据训练数据进行自适应调整;最后,针对不同的训练方法和不同的网络结构进行了性能测试。实验结果表明,CompactNet网络的微调方法要优于传统的网络训练方法,其分类指标可以达到0.87,与传统直接训练相比高出0.27;对于LeNet,AlexNet和CompactNet三种网络模型,CompactNet网络模型的分类准确率最高;并且通过实验证实了数据扩增等预处理方法的必要性。  相似文献   
9.
针对CT图像的肺结节自动检测任务中检测灵敏度低及存在大量假阳性的问题,提出了一个基于混合损失的三维全卷积网络与基于注意力的多尺度三维残差网络相结合的肺结节检测方法。首先,基于相似度损失预训练三维全卷积网络,利用该网络筛选难例样本,并基于混合损失将难例与正样本进行联合调优得到候选结节检测网络,用于快速筛选疑似结节;然后,利用基于注意力的多尺度三维残差卷积网络对疑似结节进行分类,从候选结节中精确地分辨出真正结节。在LUN16数据集上,候选结节检测阶段的灵敏度在每个病例的假阳数目为59.1时达到97.18%,检测系统的平均灵敏度为0.880,表明本算法可以提高肺结节检测的灵敏度并有效控制假阳性,在LUNA16数据集上获得了更优的性能。  相似文献   
10.
针对使用卷积神经网络对图像美感品质研究中图像数据库过小的问题,使用fine-tune的迁移学习方法,分析卷积神经网络结构和图像内容对图像美感品质评价的影响。在按图像内容进行美感品质评价研究时,针对图像数据再次减小的问题,提出连续两次fine-tune的嵌套fine-tune方法,并在数据库Photo Quality上进行试验。试验结果表明,嵌套fine-tune方法得到的美感品质评价正确率比传统提取人工设计特征方法平均高出5.36%,比两种深度学习方法分别平均高出3.35%和2.33%,有效解决了卷积神经网络在图像美感品质研究中因图像数据库过小而带来的训练问题。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号