首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 223 毫秒
1.
针对视网膜图像采集过程中由于疾病引起的图像光照反射过强问题,提出了一种修正的形态学与Otsu相结合的无监督视网膜血管分割算法。首先运用形态学中的高低帽变换增强血管与背景的对比度;然后提出了一种修正方法,消除部分由视网膜疾病引起的光照问题;最后使用Otsu阈值方法分割血管。算法在DRIVE和STARE视网膜图像数据库中进行了测试,实验结果表明,DRIVE数据库中的分割精度为0.9382,STARE数据库中的分割精度为0.9460,算法的执行时间为1.6s。算法能够精确地分割出视网膜血管,与传统的无监督视网膜血管分割算法相比,算法的分割精度高、抗干扰能力强。  相似文献   

2.
视网膜血管分割对于辅助医生诊断糖尿病性视网膜病变、黄斑萎缩、青光眼等眼科疾病具有重要意义.注意力机制被广泛用于U-Net及其变体中以提高血管分割模型的性能.为进一步提高视网膜血管的分割精度,挖掘视网膜图像中的高阶及全局上下文信息,本文提出基于多尺度高阶注意力机制的模型(multi-scale high-order attention network, MHA-Net).首先,多尺度高阶注意力(multi-scale high-order attention, MHA)模块从深层特征图中提取多尺度和全局特征计算初始化注意力图,从而改进模型处理医学图像分割时尺度不变的缺陷.接下来,该模块通过图的传递闭包构建注意力图,进而提取高阶的深层特征.通过将多尺度高阶注意力模块应用于编码器-解码器结构中,在彩色眼底图像数据集DRIVE上进行血管分割,实验结果表明,基于多尺度高阶注意力机制的视网膜血管分割方法有效地提高了分割的精度.  相似文献   

3.
视网膜图像中血管的准确分割有助于对眼部病变的观察。为了提高视网膜图像血管分割精度和特征信息复用率以及精简模型,从网络框架入手,提出一种结合DCSAU-Net、多尺度信息融合模块以及Ghost模块的视网膜图像血管分割模型——MLDCSAU-Net模型。模型改进主要包括两个方面:首先在跳跃连接之后引入多尺度信息融合模块;其次编码器端使用Ghost模块替换编码器端的CSA模块。实验结果表明:多尺度信息融合模块对于模型的分割准确率有较大提升;Ghost模块有效减少了模型参数量。在STARE、CHASEDB1和HRF三个公开数据集中MLDCSAU-Net模型的准确率、查准率、查全率和F1分数均高于原模型,同时参数量更少。  相似文献   

4.
李天培  陈黎 《计算机科学》2020,47(5):166-171
眼底视网膜血管的分割提取对于糖尿病、视网膜病、青光眼等眼科疾病的诊断具有重要的意义。针对视网膜血管图像中的血管难以提取、数据量较少等问题,文中提出了一种结合注意力模块和编码-解码器结构的视网膜血管分割方法。首先对编码-解码器卷积神经网络的每个卷积层添加空间和通道注意力模块,加强模型对图像特征的空间信息和通道信息(如血管的大小、形态和连通性等特点)的利用,从而改善视网膜血管的分割效果。其中,空间注意力模块关注于血管的拓扑结构特性,而通道注意力模块关注于血管像素点的正确分类。此外,在训练过程中采用Dice损失函数解决了视网膜血管图像正负样本不均衡的问题。在3个公开的眼底图像数据库DRIVE,STARE和CHASE_DB1上进行了实验,实验数据表明,所提算法的准确率、灵敏度、特异性和AUC值均优于已有的视网膜血管分割方法,其AUC值分别为0.9889,0.9812和0.9831。实验证明,所提算法能够有效提取健康视网膜图像和病变视网膜图像中的血管网络,能够较好地分割细小血管。  相似文献   

5.
针对传统视网膜图像血管分割中部分血管轮廓粗糙、血管末梢和分支细节丢失等问题,提出 一种结合线性谱聚类超像素与生成对抗网络(Generative Adversarial Networks,GAN)的视网膜血管分割 方法。该方法首先对 GAN 进行改进,采用空洞空间金字塔池化模块的多尺度特征提取来提高 GAN 分 割精度,在获得视网膜血管分割图像后,利用线性谱聚类超像素分割的边缘贴合性高、轮廓清晰的特 点,将 GAN 输出图像映射到超像素分割图再对像素块进行分类,以达到分割的效果。仿真实验结果表 明,与传统的视网膜血管分割方法相比,该方法在灵敏度和准确性上有一定提升,轮廓边缘细节方面 有着更好的效果。  相似文献   

6.
梅旭璋  江红  孙军 《计算机工程》2020,46(3):267-272,279
视网膜血管的结构信息对眼科疾病的诊断具有重要的指导意义,对视网膜血管图像进行高效正确的分割成为临床的迫切需求。传统的人工分割方法耗时较长且易受个人主观因素的影响,分割质量不高。为此,提出一种基于密集注意力网络的图像自动分割算法。将编码器-解码器全卷积神经网络的基础结构与密集连接网络相结合,以充分提取每一层的特征,在网络的解码器端引入注意力门模块,对不必要的特征进行抑制,提高视网膜血管图像的分割精度。在DRIVE和STARE眼底图像数据集上的实验结果表明,与其他基于深度学习的算法相比,该算法的敏感性、特异性、准确率和AUC值均较高,分割效果较好。  相似文献   

7.
张志昂  廖光忠 《计算机应用》2023,(10):3275-3281
针对传统视网膜血管分割算法存在血管分割精度低和病灶区域误分割等缺点,提出一种基于U-Net的多尺度特征增强视网膜血管分割算法(MFEU-Net)。首先,为解决梯度消失问题,设计一种改进的特征信息增强残差模块(FIE-RM)替代U-Net的卷积块;其次,为扩大感受野并提高对血管信息特征的抽取能力,在U-Net的底部引入多尺度密集空洞卷积模块;最后,为减少编解码过程中的信息损失,在U-Net的跳跃连接处构建多尺度通道增强模块。在DRIVE(Digital Retinal Images for Vessel Extraction)和CHASE_DB1数据集上的实验结果表明,与在视网膜血管分割方面表现次优的算法CS-Net(Channel and Spatial attention Network)相比,MFEU-Net的F1分数分别提高了0.35和1.55个百分点,曲线下面积(AUC)分别提高了0.34和1.50个百分点,这验证了MFEU-Net可以有效提高对视网膜血管分割的准确性和鲁棒性。  相似文献   

8.
眼底视网膜血管图像的纹理与结构信息可作为医学对相关疾病诊断的重要依据。针对视网膜血管存在伪影与尺度结构复杂等难题以及微血管分割较低等问题,提出一种基于多尺度滤波的有监督学习视网膜血管分割算法。采用二维K-L变换综合分析彩色图像三通道的频带信息得到视网膜灰度图像,并利用受限对比度直方图均衡化增强血管与背景的对比度,利用Retinex降低伪影与视盘的干扰;由多尺度高斯匹配滤波、多尺度形态学滤波、Frangi滤波以及2D-Gabor滤波提取相关血管特征,并将提取好的特征集由AdaBoost初步提取血管;利用血管连通域信息去除初分割结果的非血管像素,获得最终的血管图像。该算法在DRIVE与STARE数据集上实验,准确率分别达到96.34%与95.83%。  相似文献   

9.
眼底图像中视网膜血管的健康状况对早期诊断各种眼科疾病及糖尿病心脑血管疾病等具有重要意义,然而视网膜血管结构细微、边界模糊且分布不规则,对其进行准确分割存在较大的难度.针对视网膜血管的这些特征,提出一种粗糙通道注意力残差U型网——粗糙通道注意力残差U型网络(RCARUNet).该网络首先引入粗糙集理论中上下近似概念设计粗糙神经元;接着基于粗糙神经元构建粗糙通道注意力模块,该模块在U-Net跳跃连接中采用全局最大池化和全局平均池化构造上下近似神经元,并进行神经元间的加权求和,对所建立的通道依赖关系进行合理的粗糙化,该依赖关系不仅包含全局信息,同时具有局部特性,可有效实现对所提取视网膜血管特征的准确重标定;然后添加残差连接,将特征直接从低层传递给高层,有助于解决网络性能退化问题,并有效提取更加丰富的视网膜血管特征;最后为了验证所提视网膜分割网络的有效性,在3个眼底视网膜公开图像数据集上与U-Net,Attention U-Net等传统网络模型进行对比实验,实验结果表明,所提视网膜分割网络在血管分割准确率、灵敏度和相似度等方面具有较高的优越性.  相似文献   

10.
针对现有算法对微血管分割精度低、难以区分病灶区域等问题,提出一种平衡多尺度注意力网络用于分割视网膜血管。在编码阶段引入多尺度特征提取模块,提升感受野减少血管细节特征损失;在编码和解码器间增加细节增强模块,突出目标区域提高信息敏感度;设计平衡尺度注意力模块调节细节和语义特征进行最终预测,减少伪影现象。实验结果表明,在DRIVE数据集上分割准确率为96.42%、灵敏度为83.17%、特异性为98.27%,优于现有其它算法。  相似文献   

11.
提出一种基于自组织特征映射(SOFM)的灰度图像彩色化算法。将彩色样本图像和灰度图像均转换到lαβ颜色空间,在 通道构造像素邻域的多维特征向量,将彩色样本图像的像素亮度特征向量作为网络的输入进行训练,利用SOFM的自组织特性建立像素特征向量与彩色信息值的对应关系,应用训练好的网络实现灰度图像的彩色化。实验结果表明,该算法的彩色化效果较已有算法有较大改善。  相似文献   

12.
目的 与传统分类方法相比,基于深度学习的高光谱图像分类方法能够提取出高光谱图像更深层次的特征。针对现有深度学习的分类方法网络结构简单、特征提取不够充分的问题,提出一种堆叠像元空间变换信息的数据扩充方法,用于解决训练样本不足的问题,并提出一种基于不同尺度的双通道3维卷积神经网络的高光谱图像分类模型,来提取高光谱图像的本质空谱特征。方法 通过对高光谱图像的每一像元及其邻域像元进行旋转、行列变换等操作,丰富中心像元的潜在空间信息,达到数据集扩充的作用。将扩充之后的像素块输入到不同尺度的双通道3维卷积神经网络学习训练集的深层特征,实现更高精度的分类。结果 5次重复实验后取平均的结果表明,在随机选取了10%训练样本并通过8倍数据扩充的情况下,Indian Pines数据集实现了98.34%的总体分类精度,Pavia University数据集总体分类精度达到99.63%,同时对比了不同算法的运行时间,在保证分类精度的前提下,本文算法的运行时间短于对比算法,保证了分类模型的稳定性、高效性。结论 本文提出的基于双通道卷积神经网络的高光谱图像分类模型,既解决了训练样本不足的问题,又综合了高光谱图像的光谱特征和空间特征,提高了高光谱图像的分类精度。  相似文献   

13.
目的 深度置信网络能够从数据中自动学习、提取特征,在特征学习方面具有突出优势。极化SAR图像分类中存在海量特征利用率低、特征选取主观性强的问题。为了解决这一问题,提出一种基于深度置信网络的极化SAR图像分类方法。方法 首先进行海量分类特征提取,获得极化类、辐射类、空间类和子孔径类四类特征构成的特征集;然后在特征集基础上选取样本并构建特征矢量,用以输入到深度置信网络模型之中;最后利用深度置信网络的方法对海量分类特征进行逐层学习抽象,获得有效的分类特征进行分类。结果 采用AIRSAR数据进行实验,分类结果精度达到91.06%。通过与经典Wishart监督分类、逻辑回归分类方法对比,表现了深度置信网络方法在特征学习方面的突出优势,验证了方法的适用性。结论 针对极化SAR图像海量特征的选取与利用,提出了一种新的分类方法,为极化SAR图像分类提供了一种新思路,为深度置信网络获得更广泛地应用进行有益的探索和尝试。  相似文献   

14.
An image representation method using vector quantization (VQ) on color and texture is proposed in this paper. The proposed method is also used to retrieve similar images from database systems. The basic idea is a transformation from the raw pixel data to a small set of image regions, which are coherent in color and texture space. A scheme is provided for object-based image retrieval. Features for image retrieval are the three color features (hue, saturation, and value) from the HSV color model and five textural features (ASM, contrast, correlation, variance, and entropy) from the gray-level co-occurrence matrices. Once the features are extracted from an image, eight-dimensional feature vectors represent each pixel in the image. The VQ algorithm is used to rapidly cluster those feature vectors into groups. A representative feature table based on the dominant groups is obtained and used to retrieve similar images according to the object within the image. This method can retrieve similar images even in cases where objects are translated, scaled, and rotated.  相似文献   

15.
边缘是进行相似纹理图像分类的有效特征之一,为了提高边缘检测精度,使用可变化的局部边缘模式(Varied Local Edge Pattern,VLEP)算法,利用像元及其近邻的灰度变化进行区域统计,同时从多尺度和多方向的角度提取纹理边缘特征。然而,当图像分辨率发生变化,或图像受到光照、反射的影响时,纹理计算可能会出现较大偏差。为此,在VLEP算法的基础上,提出主导学习框架相似纹理分类方法,通过构建全局主导模式集,解决纹理计算偏差导致的类间距离小和类内距离大的问题。实验结果表明,主导边缘模式思想可以有效地提高相似纹理图像的分类准确率。  相似文献   

16.
目的 前景分割是图像理解领域中的重要任务,在无监督条件下,由于不同图像、不同实例往往具有多变的表达形式,这使得基于固定规则、单一类型特征的方法很难保证稳定的分割性能。针对这一问题,本文提出了一种基于语义-表观特征融合的无监督前景分割方法(semantic apparent feature fusion,SAFF)。方法 基于语义特征能够对前景物体关键区域产生精准的响应,但往往产生的前景分割结果只关注于关键区域,缺乏物体的完整表达;而以显著性、边缘为代表的表观特征则提供了更丰富的细节表达信息,但基于表观规则无法应对不同的实例和图像成像模式。为了融合表观特征和语义特征优势,研究建立了融合语义、表观信息的一元区域特征和二元上下文特征编码的方法,实现了对两种特征表达的全面描述。接着,设计了一种图内自适应参数学习的方法,用于计算最适合的特征权重,并生成前景置信分数图。进一步地,使用分割网络来学习不同实例间前景的共性特征。结果 通过融合语义和表观特征并采用图像间共性语义学习的方法,本文方法在PASCAL VOC(pattern analysis,statistical modelling and computational learning visual object classes)2012训练集和验证集上取得了显著超过类别激活映射(class activation mapping,CAM)和判别性区域特征融合方法(discriminative regional feature integration,DRFI)的前景分割性能,在F测度指标上分别提升了3.5%和3.4%。结论 本文方法可以将任意一种语义特征和表观特征前景计算模块作为基础单元,实现对两种策略的融合优化,取得了更优的前景分割性能。  相似文献   

17.
融合自适应加权和局部奇异值分解的人脸识别   总被引:2,自引:1,他引:1       下载免费PDF全文
提出了融合自适应加权和局部奇异值分解的人脸识别方法。首先,对每个训练样本分割出人脸图像的5个特殊区域并分别进行奇异值分解,提取一些较大的奇异值构成每一区域的特征向量。然后,计算各局部块的类内距离平均值和类间距离平均值,从而得到各部分对应的权值。识别阶段,计算待识别人脸图像每一区域对所有训练样本人脸图像相应区域的隶属度,最后采用加权融合策略做出判断。基于ORL和FERET人脸数据库的实验结果表明提出的方法具有有效性和可行性。  相似文献   

18.
刘冶  潘炎  夏榕楷  刘荻  印鉴 《计算机科学》2016,43(9):39-46, 51
在大数据时代,图像检索技术在大规模数据上的应用是一个热门的研究领域。近年来,大规模图像检索系统中, 图像哈希算法 由于具备提高图像的检索效率同时减少储存空间的优点而受到广泛的关注。现有的有监督学习哈希算法存在一些问题,主流的有监督的哈希算法需要通过图像特征提取器获取人为构造的图像特征表示,这种做法带来的图像特征损失影响了哈希算法的效果,也不能较好地处理图像数据集中语义的相似性问题。随着深度学习在大规模数据上研究的兴起,一些相关研究尝试通过深度神经网络进行有监督的哈希函数学习,提升了哈希函数的效果,但这类方法需要针对数据集人为设计复杂的深度神经网络,增大了哈希函数设计的难度,而且深度神经网络的训练需要较多的数据和较长的时间,这些问题影响了基于深度学习的哈希算法在大规模数据集上的应用。针对这些问题,提出了一种基于深度卷积神经网络的快速图像哈希算法,该算法通过设计优化问题的求解方法以及使用预训练的大规模深度神经网络,提高了哈希算法的效果,同时明显地缩短了复杂神经网络的训练时间。根据在不同图像数据集上的实验结果分析可知, 与现有的基准算法相比,提出的算法在哈希函数训练效果和训练时间上都具有较大的提高。  相似文献   

19.
摘 要:近年来,车标识别因其在智能交通系统中的重要作用,受到研究者的广泛关注。 传统的车标识别算法多基于手工描述子,需要丰富的先验知识,且难以适应复杂多变的现实应 用场景。相比手工描述子,特征学习方法在解决复杂场景的计算机视觉问题时具有更优性能。 因此,提出一种基于目标优化学习的车标识别方法,基于从原图像中提取的像素梯度差矩阵, 通过目标优化,自主学习特征参数。然后将像素梯度差矩阵映射为紧凑的二值矩阵,通过特征 码本的方式对特征信息进行编码,生成鲁棒的特征向量。基于公开车标数据集 HFUT-VL1 和 XMU 进行实验,并与其他车标识别方法进行比较。实验结果表明,与基于传统特征描述子的 方法相比,该算法识别率更高,与基于深度学习的方法相比,训练和测试时间更少。  相似文献   

20.
针对现有恶意软件分类方法融合的静态特征维度高、特征提取耗时、Boosting算法对大量高维特征样本串行训练时间长的问题,提出一种基于静态特征融合的分类方法。提取原文件和其反编译的Lst文件的灰度图像素特征、原文件的结构特征和Lst文件的内容特征,对特征融合和分类。在训练集采样时启用GOSS算法减少对训练样本的采样,使用LightGBM作为分类器,该分类器通过EFB对互斥特征降维。实验证明在三类特征融合下分类准确率达到了97.04%,通过启用GOSS采样减少了29%的训练时间,在分类效果上,融合的特征优于融合Opcode n-gram的特征,LightGBM优于传统深度学习和机器学习算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号