首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 514 毫秒
1.
LeNet-5卷积神经网络(CNN)虽然在手写数字识别上取得很好的分类效果,但在具有复杂纹理特征的数据集上分类精度不高。为提高网络在复杂纹理特征图像上分类的正确率,提出一种改进的LeNet-5网络结构。引入跨连思想,充分利用网络提取的低层次特征;把Inception V1模块嵌入LeNet-5卷积神经网络,提取图像的多尺度特征;输出层使用softmax函数对图像进行分类。在Cifar-10和Fashion MNIST数据集上进行的实验结果表明,改进的卷积神经网络在复杂纹理特征数据集上具有很好的分类能力。  相似文献   

2.
何新宇  张晓龙 《计算机应用》2019,39(6):1680-1684
当前的肺炎图像识别算法面临两个问题:一是肺炎特征提取器使用的迁移学习模型在源数据集与肺炎数据集上图像差异较大,所提取的特征不能很好地契合肺炎图像;二是算法使用的softmax分类器对高维特征处理能力不够强,在识别准确率上仍有提升的空间。针对这两个问题,提出了一种基于深度卷积神经网络的肺炎图像识别模型。首先使用ImageNet数据集训练好的GoogLeNet Inception V3网络模型进行特征提取;其次,增加了特征融合层,使用随机森林分类器进行分类预测。实验在Chest X-Ray Images肺炎标准数据集上进行。实验结果表明,该模型的识别准确率、敏感度、特异度的值分别达到96.77%、97.56%、94.26%。在识别准确率以及敏感度指标上,与经典的GoogLeNet Inception V3+Data Augmentation (GIV+DA)算法相比,所提模型分别提高了1.26、1.46个百分点,在特异度指标上已接近GIV+DA算法的最优结果。  相似文献   

3.
针对神经网络难以利用少量标注数据获取足够的信息来正确分类图像的问题,提出了一种融合随机深度网络和多尺度卷积的关系网络——SDM-RNET.首先在模型嵌入模块引入随机深度网络用于加深模型深度,然后在特征提取阶段采用多尺度深度可分离卷积替代普通卷积进行特征融合,经过骨干网络后再采用深浅层特征融合获取更丰富的图像特征,最终学习预测出图像的类别.在mini-ImageNet、RP2K、Omniglot这3个数据集上对比该方法与其他小样本图像分类方法,结果表明在5-way 1-shot和5-way 5-shot分类任务上该方法准确率最高.  相似文献   

4.
针对光学遥感图像场景分类存在类别变化、样本数量变化,场景图像中背景与重要物体变换大、尺度变化多的问题,提出基于神经网络注意力架构搜索的光学遥感图像场景分类方法,由算法自适应在神经网络中搜索卷积、池化、注意力等操作,构建能完成光学遥感图像场景分类任务的神经网络。为保证搜索神经网络过程稳定性,提出两段式贪婪策略网络搜索方法,分阶段丢弃无用操作,减少搜索算法负担、提高搜索速度。最后为了关注各物体与场景关联信息,提出自上而下的网络连接策略,充分复用各阶段多尺度特征图的语义。实验结果证明:该方法相较于手工设计的经典深度学习方法具有更好的性能。在AID、NWPU、PATTERNET 3个遥感图像标准数据集上总体精度均超过经典方法。在AID数据集上准确率达到94.04%;在PATTERNET数据集上准确率达到99.62%;在NWPU数据集上达到95.49%。  相似文献   

5.
刘虎  周野  袁家斌 《计算机应用》2019,39(8):2402-2407
针对多角度下车辆出现一定的尺度变化和形变导致很难被准确识别的问题,提出基于多尺度双线性卷积神经网络(MS-B-CNN)的车型精细识别模型。首先,对双线性卷积神经网络(B-CNN)算法进行改进,提出MS-B-CNN算法对不同卷积层的特征进行了多尺度融合,以提高特征表达能力;此外,还采用基于中心损失函数与Softmax损失函数联合学习的策略,在Softmax损失函数基础上分别对训练集每个类别在特征空间维护一个类中心,在训练过程中新增加样本时,网络会约束样本的分类中心距离,以提高多角度情况下的车型识别的能力。实验结果显示,该车型识别模型在CompCars数据集上的正确率达到了93.63%,验证了模型在多角度情况下的准确性和鲁棒性。  相似文献   

6.
针对传统卷积神经网络(CNN)稀疏网络结构无法保留全连接网络密集计算的高效性和实验过程中激活函数的经验性选择造成结果不准确或计算量大的问题,提出一种改进卷积神经网络方法对遥感图像进行分类。首先,利用Inception模块的不同尺度卷积核提取图像多尺度特征,然后利用Maxout模型学习隐藏层节点的激活函数,最后通过Softmax方法对图像进行分类。在美国土地使用分类数据集(UCM_LandUse_21)上进行的实验结果表明,在卷积层数相同的情况下,所提方法比传统的CNN方法分类精度提高了约3.66%,比同样也基于多尺度深度卷积神经网络(MS_DCNN)方法分类精度提高了2.11%,比基于低层特征和中层特征的视觉词典等方法分类精度更是提高了10%以上。因此,所提方法具有较高的分类效率,适用于图像分类。  相似文献   

7.
场景分类对于场景图像的语义解译至关重要,是遥感领域近期的主要研究课题之一。针对大部分图像分类方法中提取的特征结构单一,依赖于大量人工标记的数据以及分类器的训练过程缓慢等问题,提出了一种基于多特征融合与约束极限学习机(constrained extreme learning machines,CELM)的场景图像分类方法。该方法采用三种不同结构的预训练卷积神经网络,利用特定数据集对其进行微调,将微调后网络提取到的三种特征进行融合并送入CELM分类器进行分类,最终得到图像的类别标签。以SIRI-WHU、WHU-RS19与UC-Merced数据集作为实验数据集,在预训练卷积神经网络、单一特征和传统分类器上进行的对比实验表明,基于多特征融合与CELM相结合的方法产生了较好的分类效果,三种数据集上的总分类精度分别高达99.25%、98.26%与97.70%。  相似文献   

8.
铁路检测、监测领域产生海量的图像数据,基于图像场景进行分类对图像后续分析、管理具有重要价值.本文提出一种结合深度卷积神经神经网络DCNN (Deep Convolutional Neural Networks)与梯度类激活映射Grad-CAM (Grad Class Activation Mapping)的可视化场景分类模型,DCNN在铁路场景分类图像数据集进行迁移学习,实现特征提取,Grad-CAM根据梯度全局平均计算权重实现对类别的加权热力图及激活分数计算,提升分类模型可解释性.实验中对比了不同的DCNN网络结构对铁路图像场景分类任务性能影响,对场景分类模型实现可视化解释,基于可视化模型提出了通过降低数据集内部偏差提升模型分类能力的优化流程,验证了深度学习技术对于图像场景分类任务的有效性.  相似文献   

9.
基于深度卷积神经网络模型,讨论了不同尺度及不同模式肺结节图像对模型分类表现的影响,并提出了一种2D多视图融合的肺图像处理方法,该方法比传统的2D方式能获取更多的肺结节信息,同时又能比3D的方式引入更少的干扰组织。为了验证模型,对LIDC-IDRI和LUNA16数据集进行了预处理,得到了16、25、36三种尺度下2D、3D、2D全视图融合以及2D多视图融合四种不同模式的肺结节图像,然后构建了2D CNN、3D CNN、2D全视图融合卷积神经网络、2D多视图融合卷积神经网络四种模型。利用上述样本对模型进行训练和验证,最终结果表明,2D多视图融合模式下的肺结节图像相对于其他模式图像具有更佳的肺结节分类表现;对比多种尺度图像,小尺度下的分类表现相对更佳。  相似文献   

10.
基于小样本学习的图像分类技术综述   总被引:2,自引:0,他引:2  
图像分类的应用场景非常广泛,很多场景下难以收集到足够多的数据来训练模型,利用小样本学习进行图像分类可解决训练数据量小的问题.本文对近年来的小样本图像分类算法进行了详细综述,根据不同的建模方式,将现有算法分为卷积神经网络模型和图神经网络模型两大类,其中基于卷积神经网络模型的算法包括四种学习范式:迁移学习、元学习、对偶学习...  相似文献   

11.
为了精确地从X线图像中分割脊柱,提出了一种基于深度学习的脊柱X线图像分割方法,使用基于多尺度特征融合的U-Net网络进行分割。将U-Net模型中的卷积层替换成类Inception网络来提取不同尺度的特征,并进行多尺度融合。同时在跳跃连接前增加残差连接层,并在首次上采样前添加卷积块注意力模块。该模型对20幅脊柱X线图像进行验证,Dice系数为0.845 7,与近期X线脊柱图像分割方法相比,提高了0.135 1。  相似文献   

12.
目前,卷积神经网络(CNN)开始应用在肺炎分类领域。针对层数较浅、结构较为简单的卷积网络对肺炎识别的准确率难以提高的情况,采用深度学习方法,并针对采用深度学习方法时常常需要消耗大量的系统资源,导致卷积网络难以在用户端部署的问题,提出一种使用优化的卷积神经网络的分类方法。首先,根据肺炎图像的特征,选择具有良好图像分类性能的AlexNet与InceptionV3模型;然后,利用医学影像特点对层次更深、结构更加复杂的InceptionV3模型进行预训练;最后,通过知识蒸馏的方法,将训练好的"知识"(有效信息)提取到AlexNet模型中,从而实现在减少系统资源占用的同时,提高准确率的效果。实验数据表明,使用知识蒸馏后,AlexNet模型的准确率、特异性与灵敏度分别提高了4.1、7.45、1.97个百分点,且对图像处理器(GPU)占用相比InceptionV3模型减小了51个百分点。  相似文献   

13.
针对CT图像肺结节分类任务中分类精度低,假阳性高的问题,提出了一种加权融合多维度卷积神经网络的肺结节分类模型,该模型包含两个子模型:基于二维图像的多尺度密集卷积网络模型,以捕获更宽泛的结节变化特征并促进特征重用;基于三维图像的三维卷积神经网络模型,以充分利用结节空间上下文信息。使用二维和三维CT图像训练子模型,根据子模型分类误差计算其权重,对子模型分类结果进行加权融合,得到最终分类结果。该模型在公共数据集LIDC-IDRI上分类准确率达到94.25%,AUC值达到98%。实验结果表明,加权融合多维度模型可以有效地提升肺结节分类性能。  相似文献   

14.
目的 与传统分类方法相比,基于深度学习的高光谱图像分类方法能够提取出高光谱图像更深层次的特征。针对现有深度学习的分类方法网络结构简单、特征提取不够充分的问题,提出一种堆叠像元空间变换信息的数据扩充方法,用于解决训练样本不足的问题,并提出一种基于不同尺度的双通道3维卷积神经网络的高光谱图像分类模型,来提取高光谱图像的本质空谱特征。方法 通过对高光谱图像的每一像元及其邻域像元进行旋转、行列变换等操作,丰富中心像元的潜在空间信息,达到数据集扩充的作用。将扩充之后的像素块输入到不同尺度的双通道3维卷积神经网络学习训练集的深层特征,实现更高精度的分类。结果 5次重复实验后取平均的结果表明,在随机选取了10%训练样本并通过8倍数据扩充的情况下,Indian Pines数据集实现了98.34%的总体分类精度,Pavia University数据集总体分类精度达到99.63%,同时对比了不同算法的运行时间,在保证分类精度的前提下,本文算法的运行时间短于对比算法,保证了分类模型的稳定性、高效性。结论 本文提出的基于双通道卷积神经网络的高光谱图像分类模型,既解决了训练样本不足的问题,又综合了高光谱图像的光谱特征和空间特征,提高了高光谱图像的分类精度。  相似文献   

15.
针对普通神经卷积网络对番茄叶病的识别精准度, 先提出一种新型的多尺度融合注意力机制的网络(MIPSANet), 在该网络中采用轻量级网络作为主要框架, 减少了网络的参数, 为了增加网络的深度和宽度, 加入了Inception结构, 用于提取数据的多尺度特征信息, 同时, 在这个过程中使用更加精细的双重注意力机制, 极化自注意力(polarized self-attention, PSA), 作为一个即插即用的模块, 将其嵌入整个模型中, 提高了重要特征点的表达能力, 同时PSA模块的轻量化也符合本模型的使用. 在卷积后加入全连接层, 进行分类. 使用提出的网络在Kaggle公开数据集tomato leaves dataset 上进行实验, 对其进行30批次的训练, 取得了91.05%的准确率, 与其他方法进行对照, 取得良好的效果. 试验结果表明该网络对番茄叶病的分类有很好的效果, 为分类网络的网络结构和参数配置方面提供一些参考价值.  相似文献   

16.
针对当前农作物病害分割与识别模型病斑分割精度低、数据集不充分、训练速度过慢等问题,构建了一种基于改进的U-Net网络多尺度番茄叶部病害分割算法。在U-Net网络结构基础上进行改进,减小图像输入尺寸,在编码器中使用非对称Inception多通道卷积替换传统卷积,实现多尺度提取病害特征,提升模型准确度;在解码器中加入注意力模块,关注番茄病害边缘,减小上采样噪声;引入GN加速模型收敛,并将改进U-Net网络用在PlantVillage数据集上进行预训练,提高模型的分割准确度和速度。改进后的方法准确率、召回率和MIoU分别为92.9%、91.1%、93.6%,实验结果表明,该方法能够有效地提高模型对番茄的病害分割性能。  相似文献   

17.
针对传统目标检测算法应用在无人机航拍图像上第三方施工目标检测和违章占压建筑检测的数据集少、检测率低等问题,提出基于Aerial-YOLOv2和迁移学习的航拍图像目标检测算法。首先,利用结合数据增强的迁移学习策略训练的网络来扩大数据集规模,并利用K均值聚类分析得到符合所提数据集特点的锚点框数量和尺寸;其次,通过自适应对比度增强的方法对图像进行预处理;最后,提出改进卷积模块替代YOLOv2中的卷积块并结合特征融合的多尺度预测方式进行目标检测。用不同的算法和训练策略在无人机航拍图像上进行对比实验,实验结果表明,Aerial-YOLOv2算法结合多种训练策略后,其准确率、召回率分别能达到95%、91%,每张图像检测时间为14 ms。由此可知,该算法适用于无人机航拍图像第三方施工目标及违章占压建筑的智能检测。  相似文献   

18.
深度学习在视觉任务中的良好表现很大程度上依赖于海量的数据和计算力的提升,但是在很多实际项目中通常难以提供足够的数据来完成任务。针对某些情况下红外图像少且难以获得的问题,提出一种基于彩色图像生成红外图像的方法来获取更多的红外图像数据。首先,用现有的彩色图像和红外图像数据构建成对的数据集;然后,基于卷积神经网络、转置卷积神经网络构建生成对抗网络(GAN)模型的生成器和鉴别器;接着,基于成对的数据集来训练GAN模型,直到生成器和鉴别器之间达到纳什平衡状态;最后,用训练好的生成器将彩色图像从彩色域变换到红外域。基于定量评估标准对实验结果进行了评估,结果表明,所提方法可以生成高质量的红外图像,并且相较于在损失函数中不加正则化项,在损失函数中加入L1和L2正则化约束后,该方法的FID分数值平均分别降低了23.95和20.89。作为一种无监督的数据增强方法,该方法也可以被应用于其他缺少数据的目标识别、目标检测、数据不平衡等视觉任务中。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号