首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
传统的服装多类别分类方法主要是人工提取图像的颜色、纹理、边缘等特征,这些人工选取特征方法过程繁琐且分类精度较低。深度残差网络可通过增加神经网络的深度获得较高的识别精度被广泛地应用于各个领域。为提高服装图像识别精度问题,提出一种改进深度残差网络模型:改进残差块中卷积层、调整批量归一化层与激活函数层中的排列顺序;引入注意力机制;调整网络卷积核结构。该网络结构在标准数据集Fashion-MNIST和香港中文大学多媒体实验室提供的多类别大型服装数据集(DeepFashion)上进行测试,实验结果表明,所提出的网络模型在服装图像识别分类精度上优于传统的深度残差网络。  相似文献   

2.
张珂  高策  郭丽茹  苑津莎  赵振兵 《计算机应用》2017,37(11):3244-3248
针对非受限条件下人脸图像年龄分类准确度较低的问题,提出了一种基于深度残差网络(ResNets)和大数据集微调的非受限条件下人脸年龄分类方法。首先,选用深度残差网络作为基础卷积神经网络模型处理人脸年龄分类问题;其次,在ImageNet数据集上对深度残差网络预训练,学习基本图像特征的表达;然后,对大规模人脸年龄图像数据集IMDB-WIKI清洗,并建立了IMDB-WIKI-8数据集用于微调深度残差网络,实现一般物体图像到人脸年龄图像的迁移学习,使模型适应于年龄段的分布并提高网络学习能力;最后,在非受限人脸数据集Adience上对微调后的网络模型进行训练和测试,并采用交叉验证方法获取年龄分类准确度。通过34/50/101/152层残差网络对比可知,随着网络层数越深年龄分类准确度越高,并利用152层残差网络获得了Adience数据集上人脸图像年龄分类的最高准确度65.01%。实验结果表明,结合更深层残差网络和大数据集微调,能有效提高人脸图像年龄分类准确度。  相似文献   

3.
基于深度迁移学习的烟雾识别方法   总被引:1,自引:0,他引:1  
王文朋  毛文涛  何建樑  窦智 《计算机应用》2017,37(11):3176-3181
针对传统的基于传感器和图像特征的烟雾识别方法易被外部环境干扰且识别场景单一,从而造成烟雾识别精度较低,而基于深度学习的识别方法对数据量要求较高,对于烟雾数据缺失或数据来源受限的情况模型识别能力较弱的问题,提出一种基于深度迁移学习的烟雾识别方法。将ImageNet数据集作为源数据,利用VGG-16模型进行基于同构数据下的特征迁移。首先,将所有的图像数据进行预处理,对每张图像作随机变换(随机旋转、剪切、翻转等);其次,引入VGG-16网络,将其卷积层特征进行迁移,并连接预先使用烟雾数据在VGG-16网络中训练过的全连接层;进而构建出基于迁移学习的深度网络,从而训练得到烟雾识别模型。利用公开数据集以及真实场景烟雾图像进行实验验证,实验结果表明,和现有主流烟雾图像识别方法相比,所提方法有较高的烟雾识别率,实验精度达96%以上。  相似文献   

4.
针对深度卷积神经网络随着卷积层数增加而导致网络模型难以训练和性能退化等问题,提出了一种基于深度残差网络的人脸表情识别方法。该方法利用残差学习单元来改善深度卷积神经网络模型训练寻优的过程,减少模型收敛的时间开销。此外,为了提高网络模型的泛化能力,从KDEF和CK+两种表情数据集上选取表情图像样本组成混合数据集用以训练网络。在混合数据集上采用十折(10-fold)交叉验证方法进行了实验,比较了不同深度的带有残差学习单元的残差网络与不带残差学习单元的常规卷积神经网络的表情识别准确率。当采用74层的深度残差网络时,可以获得90.79%的平均识别准确率。实验结果表明采用残差学习单元构建的深度残差网络可以解决网络深度和模型收敛性之间的矛盾,并能提升表情识别的准确率。  相似文献   

5.
针对飞行物检测中,由于目标背景复杂、姿态不一导致的识别准确率低的问题,提出改进的基于区域卷积神经网络Faster R-CNN的空中飞行物识别算法,使用消色差折射式望远镜ETX80和个人电脑(PC)构建空中飞行物识别系统。首先,构建包含无人机、飞机和飞鸟三种飞行物的数据集,对数据集进行标注和划分;然后,利用ResNet101深度残差网络提取图像特征,并输入构建的深度学习网络模型进行训练,网络模型包括区域建议网络、感兴趣区域池化层和分类层。测试结果证明:该方法能够在不同背景下的无人机、飞机、飞鸟三类空中飞行物的识别上达到良好的效果,检测平均准确率为96.7%,比FasterR-CNN算法提高3.1%。  相似文献   

6.
深度学习和迁移学习的兴起为树种识别提供了新方向,然而其在同树种内不同品质间木材识别仍存在挑战。为改善古筝面板品质分级现状,设计了一种深度残差网络模型。首先将数据集进行划分并采用数据增强技术来扩充训练样本,然后将ImageNet上经过预训练的模型迁移到该问题上。为高效提取到板材图像特征,在预训练模型后新增深层特征提取部分,其融合了残差连接和深度可分离卷积,不仅可增强特征重利用率和缓解梯度消失,而且有利于提取到图像深层特征。最后为提升模型在训练过程中的鲁棒性,使用LeakyReLU函数代替ReLU函数避免神经元死亡问题。该方法在泡桐导管图像数据集上测试精度达到了92.8%,对比其他主流方法,该模型可节省古筝品质分级时间,提高识别精度。  相似文献   

7.
提出了一种基于深度学习的声信号分类识别方法,将声场环境中声源目标的识别等效为声场信号—特定声源的端到端学习过程,建立一种以log-mel能量为声信号特征的预提取方法,以深度残差网络作为特征自动提取及分类的声信号分类识别模型。在两个大型数据集上对模型性能进行了验证,实验结果表明,本文提出的深度残差网络模型在DCASE2019数据集和UrbanSound8K数据集上能够实现80.2%和76.4%的识别精度,在声源探测领域具有一定的应用价值。  相似文献   

8.
改进残差网络在玉米叶片病害图像的分类研究   总被引:1,自引:0,他引:1       下载免费PDF全文
针对传统的玉米叶片病害图像识别方法正确率不高、速度慢等问题,提出一种基于改进深度残差网络模型的玉米叶片图像识别算法。提出的改进策略有:将传统的ResNet-50模型第一层卷积层中7×7卷积核替换为3个3×3的卷积核;使用LeakyReLU激活函数替代ReLU激活函数;改变残差块中批标准化层、激活函数与卷积层的排列顺序。进行数据预处理,将训练集与测试集的比例划分为4∶1,采用数据增强的方式对训练集进行扩充,将改进的ResNet-50模型经过迁移学习得到在ImageNet上预训练好的权重参数。实验结果表明,改进的网络在玉米叶片病害图像分类中得到了98.3%的正确率,与其他网络模型相比准确率大幅提升,鲁棒性进一步增强,可为玉米叶片病害的识别提供参考。  相似文献   

9.
手写汉字识别是模式识别与机器学习的重要研究方向和应用领域;近年来,随着深度学习理论方法的完善、新技术的层出不穷,深度神经网络在图像识别分类、图像生成等典型应用中取得了突破性的进展,其中,深度残差网络作为最新的研究成果,已成功应用于手写数字识别、图片识别分类等多个领域;将研究深度残差网络在脱机孤立手写汉字识别中的应用方法,通过改进残差学习模块的单元结构,优化深度残差网络性能,同时通过对训练集的预处理,从数据层面实现训练生成模型性能的提升,最后设计实验,验证深度残差网络、End-to-End模式在脱机手写汉字识别中的可行性,分析、总结存在的问题及今后的研究方向。  相似文献   

10.
由于影像学技术在新型冠状病毒肺炎(COVID-19)的诊断和评估中发挥了重要作用,COVID-19相关数据集陆续被公布,但目前针对相关文献中数据集以及研究进展的整理相对较少。为此,通过COVID-19相关的期刊论文、报告和相关开源数据集网站,对涉及到的新冠肺炎数据集及深度学习模型进行整理和分析,包括计算机断层扫描(CT)图像数据集和X射线(CXR)图像数据集。对这些数据集呈现的医学影像的特征进行分析;重点论述开源数据集,以及在相关数据集上表现较好的分类和分割模型。最后讨论了肺部影像学技术未来的发展趋势。  相似文献   

11.
郭志强  胡永武  刘鹏  杨杰 《计算机应用》2020,40(4):1023-1029
天气状况对室外视频设备的成像效果有很大影响。为实现成像设备在恶劣天气下的自适应调整,从而提升智能监控系统的效果,同时针对传统的天气图像判别方法分类效果差且对相近天气现象不易分类的不足,以及深度学习方法识别天气准确率不高的问题,提出了一个将传统方法与深度学习方法相结合的特征融合模型。融合模型采用4种人工设计算法提取传统特征,采用AlexNet提取深层特征,利用融合后的特征向量进行图像天气状况的判别。融合模型在多背景数据集上的准确率达到93.90%,优于对比的3种常用方法,并且在平均精准率(AP)和平均召回率(AR)指标上也表现良好;在单背景数据集上的准确率达到96.97%,AP和AR均优于其他模型,且能很好识别特征相近的天气图像。实验结果表明提出的特征融合模型可以结合传统方法和深度学习方法的优势,提升现有天气图像分类方法的准确度,同时提高在特征相近的天气现象下的识别率。  相似文献   

12.
目的 模糊车牌识别是车牌识别领域的难题,针对模糊车牌图像收集困难、车牌识别算法模型太大、不适用于移动或嵌入式设备等不足,本文提出了一种轻量级的模糊车牌识别方法,使用深度卷积生成对抗网络生成模糊车牌图像,用于解决现实场景中模糊车牌难以收集的问题,在提升算法识别准确性的同时提升了部署泛化能力。方法 该算法主要包含两部分,即基于优化卷积生成对抗网络的模糊车牌图像生成和基于深度可分离卷积网络与双向长短时记忆(long short-term memory,LSTM)的轻量级车牌识别。首先,使用Wasserstein距离优化卷积生成对抗网络的损失函数,提高生成车牌图像的多样性和稳定性;其次,在卷积循环神经网络的基础上,结合深度可分离卷积设计了一个轻量级的车牌识别模型,深度可分离卷积网络在减少识别算法计算量的同时,能对训练样本进行有效的特征学习,将特征图转换为特征序列后输入到双向LSTM网络中,进行序列学习与标注。结果 实验表明,增加生成对抗网络生成的车牌图像,能有效提高本文算法、传统车牌识别和基于深度学习的车牌识别方法的识别率,为进一步提高各类算法的识别率提供了一种可行方案。结合深度可分离卷积的轻量级车牌识别模型,识别率与基于标准循环卷积神经网络(convolutional recurrent neural network,CRNN)的车牌识别方法经本文生成图像提高后的识别率相当,但在模型的大小和识别速度上都优于标准的CRNN模型,本文算法的模型大小为45 MB,识别速度为12.5帧/s,标准CRNN模型大小是82 MB,识别速度只有7帧/s。结论 使用生成对抗网络生成图像,可有效解决模糊车牌图像样本不足的问题;结合深度可分离卷积的轻量级车牌识别模型,具有良好的识别准确性和较好的部署泛化能力。  相似文献   

13.
针对小数据集下单纯使用深度学习方法的草图特征提取可分辨性低下的问题,提出一种融合稀疏编码和深度学习的草图特征表示方法.该算法首先对草图进行语义分割;然后迁移深度学习方法,分别提取草图特征和草图部件特征,之后将部件特征降维聚类,获取聚类中心;最后利用部件聚类中心向量初始化稀疏编码中的字典,交替迭代求取获得最终的草图特征.不同于以往的草图特征表示方法,将迁移深度学习获得的草图部件特征引入到稀疏编码中,作为字典的初始基向量,将语义信息融入到稀疏编码,在提升草图特征表示性能的同时,使得稀疏表示具有更好的可解释性.实验结果显示,所提方法下的草图识别率高于采用传统非深度学习和深度学习方法提取的草图特征的草图识别率.  相似文献   

14.
目的 人脸图像分析是计算机视觉和模式识别领域的重要研究方向之一,基于人脸图像的血缘关系识别是对给定的一对或一组人脸图像,判断其是否存在某种血缘关系。人脸血缘关系识别不仅在生物特征识别领域有着重要研究价值,而且在社交媒体挖掘、失散家庭成员寻找等社会生活领域中有重要的应用价值。针对当前大多数算法都是基于传统机器学习方法,提出一种采用深度度量学习进行人脸图像血缘关系研究的新方法。方法 目前深度学习算法能很好地理解单张人脸图像,但是多个主体间的关系探究仍然是计算机视觉领域富有挑战性的问题之一。为此,提出一种基于深度度量学习的父母与子女的血缘关系识别方法。首先使用超过5 000 000张人脸图像的样本集训练一个深度卷积神经网络FaceCNN并提取父母与子女的人脸图像深度特征,之后引入判别性度量学习方法,使得具有血缘关系的特征尽可能地靠近,反之则尽可能地远离。然后对特征进行分层非线性变换使其具有更强判别特性。最后根据余弦相似度分别计算父亲、母亲和孩子的相似度并利用相似概率值得到双亲和孩子的综合相似度得分。结果 算法在TSKinFace数据集上验证了FaceCNN提取特征与深度度量学习结合进行血缘关系识别的有效性,最终在该数据集上父母与儿子和女儿的血缘关系识别准确率分别达到87.71%和89.18%,同时算法在进行血缘度量学习和双亲相似度计算仅需要3.616 s。结论 提出的血缘关系识别方法,充分利用深度学习网络良好的表征和学习能力,不仅耗时少,而且有效地提高了识别准确率。  相似文献   

15.
传统的行人重识别方法依赖人工构造视觉特征,容易受到其他外界因素的影响,识别精度低。深度学习模型能自主地提取特征,但随着网络层数的加深会出现梯度消失情况,残差网络能缓解梯度消失问题,但提取出的特征信息未被合理使用。行人部分图像被遮挡是影响行人重识别准确性的另一个重要因素。针对上述问题提出了融合随机擦除和残差注意力网络的行人重识别算法。该算法:(1)在残差网络的基础上,引入注意力机制模块,通过强化有用的特征和抑制作用不大的特征来提升网络的判别能力。(2)引入随机擦除的数据增强方法,以便降低过拟合现象,同时提高网络泛化能力,解决行人重识别中遮挡问题。(3)使用triplet loss对融合网络进行监督训练,实现样本在特征空间中达到更好的聚类效果,提升行人重识别的准确率。实验表明,该算法在Market-1501数据集和DukeMTMC-reID数据集上能获取较高的识别精度。  相似文献   

16.
The COVID-19 virus has fatal effect on lung function and due to its rapidity the early detection is necessary at the moment. The radiographic images have already been used by the researchers for the early diagnosis of COVID-19. Though several existing research exhibited very good performance with either x-ray or computer tomography (CT) images, to the best of our knowledge no such work has reported the assembled performance of both x-ray and CT images. Thus increase in accuracy with higher scalability is the main concern of the recent research. In this article, an integrated deep learning model has been developed for detection of COVID-19 at an early stage using both chest x-ray and CT images. The lack of publicly available data about COVID-19 disease motivates the authors to combine three benchmark datasets into a single dataset of large size. The proposed model has applied various transfer learning techniques for feature extraction and to find out the best suite. Finally the capsule network is used to categorize the sub-dataset into COVID positive and normal patients. The experimental results show that, the best performance exhibits by the ResNet50 with capsule network as an extractor-classifier pair with the combined dataset, which is composed of 575 numbers of x-ray images and 930 numbers of CT images. The proposed model achieves accuracy of 98.2% and 97.8% with x-ray and CT images, respectively, and an average of 98%.  相似文献   

17.
通过肺部CT影像进行肺结节检测是肺癌早期筛查的重要手段,而候选结节的假阳性筛查是结节检测的关键部分。传统的结节检测方法主要通过简单的先验知识再利用低级的描述特征进行辅助检测,存在着假阳性高、敏感度低的问题。在深度学习中,卷积神经网络可以在通用的学习过程中提取图像的特征。提出了一种基于密集神经网络的结节假阳性筛查模型:首先对CT图像进行阈值分割提取肺区再截取以结节为中心的图像,送入网络模型进行分类训率;在网络模型中,通过稠密连接强化特征利用、扩大特征空间,采用瓶颈层降低参数冗余。模型在公开的LIDC数据集上取得了95.82%的准确率,ROC曲线下面积达到0.987,CPM为0.772。实验结果表明了该模型的有效性,其性能优于相关文献的方法,适用于肺结节的假阳性降低。  相似文献   

18.
大豆有许多品种(cultivar),它们的叶片图像模式的差异非常细微,因此很难通过叶片特征将大豆品种区分开.虽然在使用叶片图像模式进行植物种类(species)识别方面的研究已经取得了巨大的进步,然而,作为一项非常细粒度的模式识别问题,大豆品种的识别与分类研究尚未引起足够的重视.传统的手工叶片图像分析方法一般无法刻画不同大豆品种的叶片特征的细微差异,因此识别率很低.本文尝试使用深度学习来提取具有强的辨识能力的叶片特征,以解决大豆的品种识别问题.我们提出了一种新颖的深度学习模型,称为目标转换注意力网络(Transformation Attention Network,TAN).该方法首先通过注意力机制提取细粒度的叶片图像特征,然后使用仿射变换纠正叶片姿势.我们构建了一个由240个大豆品种组成的大豆叶片品种图像数据库,每个品种有10个样本,以此数据集验证叶片图像模式中品种信息的可用性,并验证了所提出的深度学习模型对大豆品种识别的有效性.令人鼓舞的是实验结果证实了叶片图像模式在区分栽培大豆品种方面的有效性,并证明了所提出的方法优于流行的叶片手工特征提取方法和深度学习方法.  相似文献   

19.
目的 细粒度车型识别旨在通过任意角度及场景下的车辆外观图像识别出其生产厂家、品牌型号、年款等信息,在智慧交通、安防等领域具有重要意义。针对该问题,目前主流方法已由手工特征提取向卷积神经网络为代表的深度学习方法过渡。但该类方法仍存在弊端,首先是识别时须指定车辆的具体位置,其次是无法充分利用细粒度目标识别其视觉差异主要集中在关键的目标局部的特点。为解决这些问题,提出基于区域建议网络的细粒度识别方法,并成功应用于车型识别。方法 区域建议网络是一种全卷积神经网络,该方法首先通过卷积神经网络提取图像深层卷积特征,然后在卷积特征上滑窗产生区域候选,之后将区域候选的特征经分类层及回归层得到其为目标的概率及目标的位置,最后将这些区域候选通过目标检测网络获取其具体类别及目标的精确位置,并通过非极大值抑制算法得到最终识别结果。结果 该方法在斯坦福BMW-10数据集的识别准确率为76.38%,在斯坦福Cars-196数据集识别准确率为91.48%,不仅大幅领先于传统手工特征方法,也取得了与目前最优的方法相当的识别性能。该方法同时在真实自然场景中取得了优异的识别效果。结论 区域建议网络不仅为目标检测提供了目标的具体位置,而且提供了具有区分度的局部区域,为细粒度目标识别提供了一种新的思路。该方法克服了传统目标识别对于目标位置的依赖,并且能够实现一图多车等复杂场景下的车型细粒度识别,具有更好的鲁棒性及实用性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号