首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 78 毫秒
1.
目的 眼底图像中的动静脉分类是许多系统性疾病风险评估的基础步骤。基于传统机器学习的方法操作复杂,且往往依赖于血管提取的结果,不能实现端到端的动静脉分类,而深度语义分割技术的发展使得端到端的动静脉分类成为可能。本文结合深度学习强大的特征提取能力,以提升动静脉分类精度为目的,提出了一种基于语义融合的动静脉分割模型SFU-Net(semantic fusion based U-Net)。方法 针对动静脉分类任务的特殊性,本文采用多标签学习的策略来处理该问题,以降低优化难度。针对动静脉特征的高度相似性,本文以DenseNet-121作为SFU-Net的特征提取器,并提出了语义融合模块以增强特征的判别能力。语义融合模块包含特征融合和通道注意力机制两个操作:1)融合不同尺度的语义特征从而得到更具有判别能力的特征;2)自动筛选出对目标任务更加重要的特征,从而提升性能。针对眼底图像中血管与背景像素之间分布不均衡的问题,本文以focal loss作为目标函数,在解决类别不均衡问题的同时重点优化困难样本。结果 实验结果表明,本文方法的动静脉分类的性能优于现有绝大多数方法。本文方法在DRIVE(digital retinal images for vessel extraction)数据集上的灵敏性(sensitivity)与目前最优方法相比仅有0.61%的差距,特异性(specificity)、准确率(accuracy)和平衡准确率(balanced-accuracy)与目前最优方法相比分别提高了4.25%,2.68%和1.82%;在WIDE数据集上的准确率与目前最优方法相比提升了6.18%。结论 语义融合模块能够有效利用多尺度特征并自动做出特征选择,从而提升性能。本文提出的SFU-Net在动静脉分类任务中表现优异,性能超越了现有绝大多数方法。  相似文献   

2.
基于卷积神经网络的垃圾图像分类算法   总被引:1,自引:0,他引:1  
垃圾分类作为资源回收利用的重要环节之一,可以有效地提高资源回收利用效率,进一步减轻环境污染带来的危害.随着现代工业逐步智能化,传统的图像分类算法已经不能满足垃圾分拣设备的要求.本文提出一种基于卷积神经网络的垃圾图像分类模型(Garbage Classification Network, GCNet).通过构建注意力机制,模型完成局部和全局的特征提取,能够获取到更加完善、有效的特征信息;同时,通过特征融合机制,将不同层级、尺寸的特征进行融合,更加有效地利用特征,避免梯度消失现象.实验结果证明, GCNet在相关垃圾分类数据集上取得了优异的结果,能够有效地提高垃圾识别精度.  相似文献   

3.
现在大多数眼疾分类方法都是对单一类别疾病不同级别进行分类,并且网络模型存在参数量大、计算复杂等问题。为解决这些问题,提出一种轻量化的眼底疾病多分类网络MELCNet,该网络以PPLCNet为主干网络,由输入层特征提取、并行多尺度结构、双线性SE注意力模块、深度可分离卷积、更小参数计算的h-swish激活函数构成,能关注到不同尺度不同疾病的关键患病信息。实验结果表明,提出的多尺度注意力轻量网络模型具有较少的参数量和计算复杂度,并在所选的四种眼底疾病和正常眼底图像的多分类上取得了优异的分类结果,在内部组合数据集测试集上的分类准确率相对于ResNet-50提升1.11%,相对于Xie等人提出的类似眼疾多分类网络在公开数据集cataract测试集上提升2.5%,相较于其他轻量级分类网络在眼底疾病多分类领域具有较高的准确率以及较强的鲁棒性。  相似文献   

4.
皮肤覆盖肌肉、骨骼和身体的每个部分,是人体中最大的器官。由于其暴露于外界,所以感染更容易发生在皮肤上。皮肤病作为一种常见疾病,利用计算机技术对其进行辅助诊断,有助于减轻医生负担。针对常规卷积神经网络应用于皮肤病图像分类时由于不同种皮肤病图像之间的类间相似性以及同种皮肤病图像之间具有类内差异性导致分类困难的问题,提出一种改进双线性特征融合模型。使用经过剪枝的Inception-ResNet-v1和v2版本作为特征提取器并行提取图像特征,对特征进行双线性融合,获取更多阶数的特征信息可以提高模型对图像细节的敏感度。然后添加额外的软注意力模块,通过加权和的方式进行过滤或者加强,给图像每个位置给予不同的权重以达到对模型的加强效果。在skin-cancer-classesisic数据集上的7种皮肤病图像上进行训练,与S-CNN、MobileNet和Incremental CNN的对比证明了该模型的有效性,在Precision、Recall和F1-Score指标上该模型均为最优。  相似文献   

5.
光学相干断层成像(optical coherence tomography, OCT)是一种具有无接触、高分辨率等特点的新型眼科医学诊断方法, 现在已经作为医生临床诊断眼科疾病的重要参考物, 但人工分类疾病费时费力, 视网膜病变的早期发现和临床诊断至关重要. 为了解决该类问题, 本文提出了一种基于改进MobileNetV2神经网络对视网膜OCT图像多分类识别方法. 此方法利用特征融合技术处理图像并设计增加注意力机制改进网络模型, 二者在极大程度上提高OCT图像的分类准确率. 与原有算法相比, 分类效果具有明显提升, 本文模型的分类准确率、召回值、精确度、F1值分别达到98.3%、98.44%、98.94%、98.69%, 已经超越人工分类的准确率. 此类方法不仅在实际诊断中加快诊断流程、降低医生负担、提高诊断质量, 同时也为眼科医疗研究提供新的方向.  相似文献   

6.
针对细粒度图像分类任务中种类间局部信息差异性较小,通常会导致模型表征能力不足,特征通道之间的相互依赖关系较差以及无法有效捕捉到显著且多样化的特征信息等问题,提出了一种双线性聚合残差注意力网络(BARAN).首先在原双线性卷积网络模型(B-CNN)基础上,把原有特征提取子网络转变为更具学习能力的聚合残差网络,来提升网络的...  相似文献   

7.
针对眼底图像中视网膜血管结构的划分问题,提出一种自适应的广度优先搜索算法。首先,基于视网膜血管的结构提出层次特征的概念并进行特征提取;然后,对分割的视网膜血管进行分析及处理,提取得到多个无向图子图;最后,使用自适应的广度优先搜索算法对每个子图中的层次特征进行分类。视网膜血管结构的划分问题被转化为层次特征的分类问题,通过对视网膜血管中的层次特征进行分类,包含这些层次特征的视网膜血管段的层次结构就可以被确定,从而实现视网膜血管结构的划分。该算法运用于公开的眼底图像数据库时具有良好的性能。  相似文献   

8.
基于卷积神经网络的植物图像分类方法研究   总被引:1,自引:0,他引:1  
近年来,卷积神经网络已经成为图像分类领域的应用研究热点,其对图像特征进行自提取、自学习,解决了以往图像分类方法的图像低层特征到高层概念之间存在的语义鸿沟。为了解决植物图像的自动分类问题,该文提出一种基于卷积神经网络(CNN)的植物图像分类方法,以植物图像为研究对象,将经典卷积神经网络VGG16与全卷积网络(FCN)相结合,把VGG16中两个通道数为4096的全连接层改为卷积层,构造一个新的VGG16模型为植物图像分类模型。文中制作了一个由43类每类500张总共21500张植物图像组成的图像数据集,作为植物图像分类模型的训练数据集。实验结果表明,所提方法在植物的图像分类上的准确率达到97.23%。应用文中提出的卷积神经网络对植物图像进行分类可以取得目前最好的植物图像分类效果。  相似文献   

9.
杨旺功  赵一飞 《计算机仿真》2021,38(12):222-226
针对基于人工垃圾分类既费力又费时,且因分拣出错率高、速度慢等问题,以高效率网络模型为基础,提出了一种双线性注意力机制的卷积神经网络分类方法.首先,为EfficientNetB3模型添加通道注意力机制模块,学习通道间的非线性关系,提高关键特征的表达力.然后,采用双线性汇合的方法计算不同空间位置的外积,并对不同空间位置计算平均汇合以得到双线性特征.仿真结果表明,上述方法为卷积神经网络添加注意力模块和双行线汇合的方法可以提供更强的特征表示,在垃圾图像分类任务中提高分类精度,理论分析和试验验证均验证了所提算法的有效性.  相似文献   

10.
提出了一种基于深度学习的多疾病分类方法,实现了一个完整的眼底视网膜图像辅助诊断解决方案。将Resnet50作为主干网络,并且利用多任务学习来解决多标签分类问题,根据左右眼的相关性对左右眼图像进行拼接,融合左右眼特征,从而提高模型的精度。由于基于眼底图像的疾病分类本质上是根据图像上的病灶来判断的,因此引入注意力机制来使得模型更关注病灶特征,增强网络对有效特征的学习能力。最后通过多模型融合技术,进一步提高模型的精度。通过设计多组对比实验,确定Resnet50主干网络为本实验最佳选择,而注意力机制的引入和多模型融合使得模型的诊断准确率提升。  相似文献   

11.
王光宇  张海涛 《计算机应用研究》2021,38(12):3808-3813,3830
当前普遍使用的轻量型神经网络仍然存在计算量与参数量过大的问题,导致算力较低的廉价移动设备无法快速完成图像分类任务.针对此问题提出了一种更适合于应用在算力较低的廉价移动设备上的轻量型神经网络,引入了代价较小的线性操作与特征图合并操作用于减少神经网络的计算量与参数量,还引入了改进的残差结构、注意力机制和标签平滑技术用于提高结果判断的准确率.基于PD-38数据集的实验表明,该神经网络相比传统的轻量型神经网络使用较小的计算量与参数量可以达到较高的分类准确率.在公共数据集CIFAR-10上的实验进一步表明该神经网络具有通用性.  相似文献   

12.
目的 由于分类对象具有细微类间差异和较大类内变化的特点,细粒度分类一直是一个具有挑战性的任务。绝大多数方法利用注意力机制学习目标中显著的局部特征。然而,传统的注意力机制往往只关注了目标最显著的局部特征,同时抑制其他区域的次级显著信息,但是这些抑制的信息中通常也含有目标的有效特征。为了充分提取目标中的有效显著特征,本文提出了一种简单而有效的互补注意力机制。方法 基于SE(squeeze-and-excitation)注意力机制,提出了一种新的注意力机制,称为互补注意力机制(complemented SE,CSE)。既从原始特征中提取主要的显著局部特征,也从抑制的剩余通道信息中提取次级显著特征,这些特征之间具有互补性,通过融合这些特征可以得到更加高效的特征表示。结果 在CUB-Birds(Caltech-UCSD Birds-200-2011)、Stanford Dogs、Stanford Cars和FGVC-Aircraft(fine-grained visual classification of aircraft)4个细粒度数据集上对所提方法进行验证,以ResNet50为主干网络,在测试集上的分类精度分别达到了87.9%、89.1%、93.9%和92.4%。实验结果表明,所提方法在CUB-Birds和Stanford Dogs两个数据集上超越了当前表现最好的方法,在Stanford Cars和FGVC-Aircraft数据集的表现也接近当前主流方法。结论 本文方法着重提升注意力机制提取特征的能力,得到高效的目标特征表示,可用于细粒度图像分类和特征提取相关的计算机视觉任务。  相似文献   

13.
Image fusion plays a significant role in computer vision since numerous applications benefit from the fusion results. The existing image fusion methods are incapable of perceiving the most discriminative regions under varying illumination circumstances and thus fail to emphasize the salient targets and ignore the abundant texture details of the infrared and visible images. To address this problem, a multiscale aggregation and illumination-aware attention network (MAIANet) is proposed for infrared and visible image fusion. Specifically, the MAIANet consists of four modules, namely multiscale feature extraction module, lightweight channel attention module, image reconstruction module, and illumination-aware module. The multiscale feature extraction module attempts to extract multiscale features in the images. The role of the lightweight channel attention module is to assign different weights to each channel so as to focus on the essential regions in the infrared and visible images. An illumination-aware module is employed to assess the probability distribution regarding the illumination factor. Meanwhile, an illumination perception loss is formulated by the illumination probabilities to enable the proposed MAIANet to better adjust to the changes in illumination. Experimental results on three datasets, that is, MSRS, TNO, and RoadSence, verify the effectiveness of the MAIANet in both qualitative and quantitative evaluations.  相似文献   

14.
目的 传统的手绘图像检索方法主要集中在检索相同类别的图像,忽略了手绘图像的细粒度特征。对此,提出了一种新的结合细粒度特征与深度卷积网络的手绘图像检索方法,既注重通过深度跨域实现整体匹配,也实现细粒度细节匹配。方法 首先构建多通道混合卷积神经网络,对手绘图像和自然图像分别进行不同的处理;其次通过在网络中加入注意力模型来获取细粒度特征;最后将粗细特征融合,进行相似性度量,得到检索结果。结果 在不同的数据库上进行实验,与传统的尺度不变特征(SIFT)、方向梯度直方图(HOG)和深度手绘模型Deep SaN(sketch-a-net)、Deep 3DS(sketch)、Deep TSN(triplet sketch net)等5种基准方法进行比较,选取了Top-1和Top-10,在鞋子数据集上,本文方法Top-1正确率提升了12%,在椅子数据集上,本文方法Top-1正确率提升了11%,Top-10提升了3%,与传统的手绘检索方法相比,本文方法得到了更高的准确率。在实验中,本文方法通过手绘图像能在第1幅检索出绝大多数的目标图像,达到了实例级别手绘检索的目的。结论 提出了一种新的手绘图像检索方法,为手绘图像和自然图像的跨域检索提供了一种新思路,进行实例级别的手绘检索,与原有的方法相比,检索精度得到明显提升,证明了本文方法的可行性。  相似文献   

15.
针对卷积神经网络(CNN)平等地对待输入图像中潜在的对象信息和背景信息,而遥感图像场景又存在许多小对象和背景复杂的问题,提出一种基于注意力机制和多尺度特征变换的尺度注意力网络模型。首先,开发一个快速有效的注意力模块,基于最优特征选择生成注意力图;然后,在ResNet50网络结构的基础上嵌入注意力图,增加多尺度特征融合层,并重新设计全连接层,构成尺度注意力网络;其次,利用预训练模型初始化尺度注意力网络,并使用训练集对模型进行微调;最后,利用微调后的尺度注意力网络对测试集进行分类预测。该方法在实验数据集AID上的分类准确率达到95.72%,与ArcNet方法相比分类准确率提高了2.62个百分点;在实验数据集NWPU-RESISC上分类准确率达到92.25%,与IORN方法相比分类准确率提高了0.95个百分点。实验结果表明,所提方法能够有效提高遥感图像场景分类准确率。  相似文献   

16.
目的 青光眼是导致失明的主要疾病之一,视盘区域的形状、大小等参数是青光眼临床诊断的重要指标。然而眼底图像通常亮度低、对比度弱,且眼底结构复杂,各组织以及病灶干扰严重。为解决上述问题,实现视盘的精确检测,提出一种视觉显著性的眼底图像视盘检测方法。方法 首先,依据视盘区域显著的特点,采用一种基于视觉显著性的方法对视盘区域进行定位;其次,采用全卷积神经网络(fully convolutional neural network,FCN)预训练模型提取深度特征,同时计算视盘区域的平均灰度,进而提取颜色特征;最后,将深度特征、视盘区域的颜色特征和背景先验信息融合到单层元胞自动机(single-layer cellular automata,SCA)中迭代演化,实现眼底图像视盘区域的精确检测。结果 在视网膜图像公开数据集DRISHTI-GS、MESSIDOR和DRIONS-DB上对本文算法进行实验验证,平均相似度系数分别为0.965 8、0.961 6和0.971 1;杰卡德系数分别为0.934 1、0.922 4和0.937 6;召回率系数分别为0.964 8、0.958 9和0.967 4;准确度系数分别为0.996 6、0.995 3和0.996 8,在3个数据集上均可精确地检测视盘区域。实验结果表明,本文算法精确度高,鲁棒性强,运算速度快。结论 本文算法能够有效克服眼底图像亮度低、对比度弱及血管、病灶等组织干扰的影响,在多个视网膜图像公开数据集上进行验证均取得了较好的检测结果,具有较强的泛化性,可以实现视盘区域的精确检测。  相似文献   

17.
目的 为了充分提取版画、中国画、油画、水彩画和水粉画等艺术图像的整体风格和局部细节特征,实现计算机自动分类检索艺术图像的需求,提出通过双核压缩激活模块(double kernel squeeze-and-excitation,DKSE)和深度可分离卷积搭建卷积神经网络对艺术图像进行分类。方法 根据SKNet(selective kernel networks)自适应调节感受野提取图像整体与细节特征的结构特点和SENet(squeeze-and-excitation networks)增强通道特征的特点构建DKSE模块,利用DKSE模块分支上的卷积核提取输入图像的整体特征与局部细节特征;将分支上的特征图进行特征融合,并对融合后的特征图进行特征压缩和激活处理;将处理后的特征加权映射到不同分支的特征图上并进行特征融合;通过DKSE模块与深度可分离卷积搭建卷积神经网络对艺术图像进行分类。结果 使用本文网络模型对有无数据增强(5类艺术图像数据增强后共25 634幅)处理的数据分类,数据增强后的分类准确率比未增强处理的准确率高9.21%。将本文方法与其他网络模型和传统分类方法相比,本文方法的分类准确率达到86.55%,比传统分类方法高26.35%。当DKSE模块分支上的卷积核为1×1和5×5,且放在本文网络模型第3个深度可分离卷积后,分类准确率达到87.58%。结论 DKSE模块可以有效提高模型分类性能,充分提取艺术图像的整体与局部细节特征,比传统网络模型具有更好的分类准确率。  相似文献   

18.
针对高光谱图像光谱维度高、现有网络无法提供深度级的多层次特征,从而影响分类精度和速度的问题。首先采用核主成分分析对高光谱图像进行降维,使降维后的数据具有最佳区分度,提出了一种基于混合卷积与三重注意力的卷积神经网络(hybrid convolutional neural network with triplet attention, HCTA-Net)模型,该模型设计了一种基于三维、二维和一维卷积的混合卷积神经网络,通过不同维度卷积神经网络的融合,提取高光谱图像精细的光谱–空间联合特征。在二维卷积中加入深度可分离卷积,减少了模型参数,同时引入三重注意力机制,使用三分支结构实现跨维度信息交互,抑制无用的特征信息。在Indian Pines、Salinas和Pavia University数据集上的实验结果表明,本文提出的模型优于其他对比方法,总体分类精度分别达到了99.16%、99.87%和99.76%。  相似文献   

19.
卷积神经网络(CNN)是目前基于深度学习的计算机视觉领域中重要的研究方向之一。它在图像分类和分割、目标检测等的应用中表现出色,其强大的特征学习与特征表达能力越来越受到研究者的推崇。然而,CNN仍存在特征提取不完整、样本训练过拟合等问题。针对这些问题,介绍了CNN的发展、CNN经典的网络模型及其组件,并提供了解决上述问题的方法。通过对CNN模型在图像分类中研究现状的综述,为CNN的进一步发展及研究方向提供了建议。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号