首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 621 毫秒
1.
针对视网膜血管图像特征信息复杂程度高,现有算法存在微血管分割较低和病理信息误分割等问题,提出一种融合DenseNet和U-Net网络的血管分割模型。首先,通过限制对比度直方图均衡化和filter滤波对图像进行血管增强处理;其次利用局部自适应Gamma提升图像亮度信息并降低伪影的干扰;再次,由多尺度形态学滤波局部增强微血管特征信息;最后,利用U型密集连接模块进行分割。该算法在DRIVE数据集上实验,其平均准确率、灵敏度和特异性分别高达96.74%、81.50%和98.20%。  相似文献   

2.
眼底视网膜血管图像的纹理与结构信息可作为医学对相关疾病诊断的重要依据。针对视网膜血管存在伪影与尺度结构复杂等难题以及微血管分割较低等问题,提出一种基于多尺度滤波的有监督学习视网膜血管分割算法。采用二维K-L变换综合分析彩色图像三通道的频带信息得到视网膜灰度图像,并利用受限对比度直方图均衡化增强血管与背景的对比度,利用Retinex降低伪影与视盘的干扰;由多尺度高斯匹配滤波、多尺度形态学滤波、Frangi滤波以及2D-Gabor滤波提取相关血管特征,并将提取好的特征集由AdaBoost初步提取血管;利用血管连通域信息去除初分割结果的非血管像素,获得最终的血管图像。该算法在DRIVE与STARE数据集上实验,准确率分别达到96.34%与95.83%。  相似文献   

3.
针对视网膜血管形态结构复杂、特征信息多变的特点,提出一种结合残差网络和多尺度特征融合的U型视网膜分割算法。依次采用限制对比度直方图均衡化和局部自适应Gamma对原始视网膜图像进行预处理,得到血管增强、亮度提升的图像;将其输入至搭建的U型网络中进行端到端训练,该网络将U-Net原始卷积块替换为残差卷积块,实现对特征的复用,首尾的并行多分支结构和底部的金字塔池化结构扩大提取特征的感受野,在解码阶段加入带有注意力机制的跳跃连接改善视网膜血管的分割性能;通过sigmoid激活函数得到最终分割结果。在DRIVE数据集上进行实验,该算法准确率、敏感度和AUC分别为96.34%、84.61%和98.53%。  相似文献   

4.
针对现有算法因视网膜细小血管分割不足和抗噪声能力弱导致其分割精度低等问题,提出一种融合多层空间注意的U型视网膜血管分割算法.首先,在编码和解码部分采用特征增强残差模块,引入通道注意机制提高网络模型对血管特征的分割能力.其次,在U型网络的底部引入密集空洞卷积模块,增大感受野提取血管多尺度特征.最后,在跳跃连接阶段使用三端空间注意模块进行特征自适应细化,有效抑制特征图中的噪声.在DRIVE和STARE公开眼底图像数据集上验证本文算法,实验结果表明,所提算法准确率分别达到了0.9643和0.9683,灵敏度分别达到了0.8329和0.8224,AUC值分别达到了0.9861和0.9897.其性能指标整体优于现有先进算法.  相似文献   

5.
针对现有算法对微血管分割精度低、难以区分病灶区域等问题,提出一种平衡多尺度注意力网络用于分割视网膜血管。在编码阶段引入多尺度特征提取模块,提升感受野减少血管细节特征损失;在编码和解码器间增加细节增强模块,突出目标区域提高信息敏感度;设计平衡尺度注意力模块调节细节和语义特征进行最终预测,减少伪影现象。实验结果表明,在DRIVE数据集上分割准确率为96.42%、灵敏度为83.17%、特异性为98.27%,优于现有其它算法。  相似文献   

6.
麻文静  王雪津  邢树礼  毛国君 《软件》2024,(1):21-24+37
眼底视网膜血管分割在多种类型眼科疾病的评估和诊断中起着重要作用。由于眼底图像中血管的拓扑结构复杂多变,现有算法通常存在分割结果中血管特征不连续以及血管边缘分割准确度不高的问题。针对上述问题,本文提出一种用于视网膜血管分割的多尺度全局注意力U型神经网络MSGA-UNet。该网络一方面通过全局特征注意力模块从编码器中较为容易地获得图像的全局表征信息,解决眼底视网膜血管分割中特征不连续的问题;另一方面利用多尺度空洞卷积模块,利用不同膨胀率的空洞卷积扩大感受野并获取图像的多尺度局部特征信息,从而提升血管边缘信息的提取能力。经过在DRIVE、STARE和CHASEDB1数据集上的实验,MSGA-UNet的平均交并比分别为74.06%、78.22%和79.62%;类别平均像素准确率分别为80.39%、84.60%和85.53%;精确度分别为96.32%,96.42%和97.23%;综合分割性能优于其他模型。  相似文献   

7.
眼底视网膜血管的分割在眼底视网膜血管病变分析和心脑血管疾病诊断中具有重要的临床应用价值。针对现有视网膜血管割算法分割出的血管边界不够精确光滑以及对低对比度血管分割效果不理想等问题,本文提出一种改进的B样条Ribbon Snake模型,对视网膜图像中的血管进行分割。该方法首先对眼底视网膜图像进行亮度均衡化、去噪等预处理操作,再利用方向线检测算子对血管中心线进行提取,最终在传统B样条Ribbon Snake模型的基础上设计新的宽度能量、区域能量,并利用该模型完成对视网膜血管进行分割。实验结果表明,该方法分割出的血管边界具有精确与光滑的特性,且能对低对比度血管进行有效分割。  相似文献   

8.
李天培  陈黎 《计算机科学》2020,47(5):166-171
眼底视网膜血管的分割提取对于糖尿病、视网膜病、青光眼等眼科疾病的诊断具有重要的意义。针对视网膜血管图像中的血管难以提取、数据量较少等问题,文中提出了一种结合注意力模块和编码-解码器结构的视网膜血管分割方法。首先对编码-解码器卷积神经网络的每个卷积层添加空间和通道注意力模块,加强模型对图像特征的空间信息和通道信息(如血管的大小、形态和连通性等特点)的利用,从而改善视网膜血管的分割效果。其中,空间注意力模块关注于血管的拓扑结构特性,而通道注意力模块关注于血管像素点的正确分类。此外,在训练过程中采用Dice损失函数解决了视网膜血管图像正负样本不均衡的问题。在3个公开的眼底图像数据库DRIVE,STARE和CHASE_DB1上进行了实验,实验数据表明,所提算法的准确率、灵敏度、特异性和AUC值均优于已有的视网膜血管分割方法,其AUC值分别为0.9889,0.9812和0.9831。实验证明,所提算法能够有效提取健康视网膜图像和病变视网膜图像中的血管网络,能够较好地分割细小血管。  相似文献   

9.
视网膜血管分割在许多眼科疾病诊断和治疗方面至关重要。对复杂的视网膜结构及低对比度眼底图像来说,准确地分割视网膜图像的血管特征仍具有挑战性。联合注意力和Transformer的视网膜血管分割网络JAT-Net,通过对编码阶段特征的通道信息和位置信息联合关注增强编码局部细节特征,利用Transformer增强对长距离上下文信息和空间依赖关系建模的能力。在DRIVE和CHASE数据集上进行视网膜血管分割实验,其准确率分别为0.970 6和0.977 4,F1分数分别为0.843 3和0.815 4,在视网膜血管分割方面表现不错。  相似文献   

10.
为了从眼底图像中分割出具不同形态特征的视网膜血管,提出了基于改进相位一致性算法的眼底血管分割方法。采用二维离散Hilbert变换实现相位一致性算法,利用相位一致性算法在频域提取眼底图像特征并用于视网膜血管分割。采用STARE眼底图像数据库进行实验并以专家手工分割结果为标准,实验结果表明,提出的改进相位一致性算法可较好完成视网膜血管分割,能够有效避免图像亮度和对比度对分割结果的影响。  相似文献   

11.

To improve the accuracy of retinal vessel segmentation, a retinal vessel segmentation algorithm for color fundus images based on back-propagation (BP) neural network is proposed according to the characteristics of retinal blood vessels. Four kinds of green channel image enhancement results of adaptive histogram equalization, morphological processing, Gaussian matched filtering, and Hessian matrix filtering are used to form feature vectors. The BP neural network is input to segment blood vessels. Experiments on the color fundus image libraries DRIVE and STARE show that this algorithm can obtain complete retinal blood vessel segmentation as well as connected vessel stems and terminals. When segmenting most small blood vessels, the average accuracy on the DRIVE library reaches 0.9477, and the average accuracy on the STARE library reaches 0.9498, which has a good segmentation effect. Through verification, the algorithm is feasible and effective for blood vessel segmentation of color fundus images and can detect more capillaries.

  相似文献   

12.
针对眼底视网膜血管分割中血管边界难以精确识别以及血管与背景对比度低而难以分割的问题,提出一种编码器-解码器结构的算法.为了提高算法在血管边界的分割能力,在编码部分采用全局卷积网络(GCN)和边界细化(BR)替换传统的卷积层;在跳跃连接部分引入改进的位置注意模块(PA)和通道注意模块(CA),目的是增加血管与背景之间的对...  相似文献   

13.
针对视网膜图像采集过程中由于疾病引起的图像光照反射过强问题,提出了一种修正的形态学与Otsu相结合的无监督视网膜血管分割算法。首先运用形态学中的高低帽变换增强血管与背景的对比度;然后提出了一种修正方法,消除部分由视网膜疾病引起的光照问题;最后使用Otsu阈值方法分割血管。算法在DRIVE和STARE视网膜图像数据库中进行了测试,实验结果表明,DRIVE数据库中的分割精度为0.9382,STARE数据库中的分割精度为0.9460,算法的执行时间为1.6s。算法能够精确地分割出视网膜血管,与传统的无监督视网膜血管分割算法相比,算法的分割精度高、抗干扰能力强。  相似文献   

14.
梅旭璋  江红  孙军 《计算机工程》2020,46(3):267-272,279
视网膜血管的结构信息对眼科疾病的诊断具有重要的指导意义,对视网膜血管图像进行高效正确的分割成为临床的迫切需求。传统的人工分割方法耗时较长且易受个人主观因素的影响,分割质量不高。为此,提出一种基于密集注意力网络的图像自动分割算法。将编码器-解码器全卷积神经网络的基础结构与密集连接网络相结合,以充分提取每一层的特征,在网络的解码器端引入注意力门模块,对不必要的特征进行抑制,提高视网膜血管图像的分割精度。在DRIVE和STARE眼底图像数据集上的实验结果表明,与其他基于深度学习的算法相比,该算法的敏感性、特异性、准确率和AUC值均较高,分割效果较好。  相似文献   

15.
Multispectral imaging (MSI) technique is often used to capture images of the fundus by illuminating it with different wavelengths of light. However, these images are taken at different points in time such that eyeball movements can cause misalignment between consecutive images. The multispectral image sequence reveals important information in the form of retinal and choroidal blood vessel maps, which can help ophthalmologists to analyze the morphology of these blood vessels in detail. This in turn can lead to a high diagnostic accuracy of several diseases. In this paper, we propose a novel semi-supervised end-to-end deep learning framework called “Adversarial Segmentation and Registration Nets” (ASRNet) for the simultaneous estimation of the blood vessel segmentation and the registration of multispectral images via an adversarial learning process. ASRNet consists of two subnetworks: (i) A segmentation module S that fulfills the blood vessel segmentation task, and (ii) A registration module R that estimates the spatial correspondence of an image pair. Based on the segmention-driven registration network, we train the segmentation network using a semi-supervised adversarial learning strategy. Our experimental results show that the proposed ASRNet can achieve state-of-the-art accuracy in segmentation and registration tasks performed with real MSI datasets.  相似文献   

16.
目的 视网膜血管健康状况的自动分析对糖尿病、心脑血管疾病以及多种眼科疾病的快速无创诊断具有重要参考价值。视网膜图像中血管网络结构复杂且图像背景亮度不均使得血管区域的准确自动提取具有较大难度。本文通过使用具有对称全卷积结构的U-net深度神经网络实现视网膜血管的高精度分割。方法 基于U-net网络中的层次化对称结构和Dense-net网络中的稠密连接方式,提出一种改进的适用于视网膜血管精准提取的深度神经网络模型。首先使用白化预处理技术弱化原始彩色眼底图像中的亮度不均,增强图像中血管区域的对比度;接着对数据集进行随机旋转、Gamma变换操作实现数据增广;然后将每一幅图像随机分割成若干较小的图块,用于减小模型参数规模,降低训练难度。结果 使用多种性能指标对训练后的模型进行综合评定,模型在DRIVE数据集上的灵敏度、特异性、准确率和AUC(area under the curve)分别达到0.740 9、0.992 9、0.970 7和0.917 1。所提算法与目前主流方法进行了全面比较,结果显示本文算法各项性能指标均表现良好。结论 本文针对视网膜图像中血管区域高精度自动提取难度大的问题,提出了一种具有稠密连接方式的对称全卷积神经网络改进模型。结果表明该模型在视网膜血管分割中能够达到良好效果,具有较好的研究及应用价值。  相似文献   

17.
针对于当前遥感影像农作物提取存在的识别精度较低、边缘识别效果较差、提取速度慢等问题,提出了一种改进DeepLabV3+网络的遥感影像农作物分割方法。将特征提取网络改为更轻量级的MobileNetV2网络,空洞空间金字塔池化模块中的普通卷积改为深度可分离卷积,大幅减少模型计算量,提高模型计算速度;在特征提取模块以及空洞空间金字塔池化模块加入双注意力机制,进一步优化模型边缘识别效果,提升模型分割精度。此外针对农作物数据集类别不平衡问题,引入加权损失函数,给予玉米、薏米与背景类不同的权重,提高模型对农作物区域分割精度。以2019年某地区的无人机遥感影像为研究对象,对玉米、薏米两种农作物进行分割。实验结果表明,改进DeepLabV3+算法像素准确率可达到93.9%,平均召回率可达到90.7%,平均交并比可达到83.3%,优于传统DeepLabV3+、Unet、Segnet等常用于农作物提取的分割方法,对农作物具有更好的分割效果。  相似文献   

18.
视网膜血管分割对于辅助医生诊断糖尿病性视网膜病变、黄斑萎缩、青光眼等眼科疾病具有重要意义. 注意力机制被广泛用于U-Net及其变体中以提高血管分割模型的性能. 为进一步提高视网膜血管的分割精度, 挖掘视网膜图像中的高阶及全局上下文信息, 本文提出基于多尺度高阶注意力机制的模型(multi-scale high-order attention network, MHA-Net). 首先, 多尺度高阶注意力(multi-scale high-order attention, MHA)模块从深层特征图中提取多尺度和全局特征计算初始化注意力图, 从而改进模型处理医学图像分割时尺度不变的缺陷. 接下来, 该模块通过图的传递闭包构建注意力图, 进而提取高阶的深层特征. 通过将多尺度高阶注意力模块应用于编码器-解码器结构中, 在彩色眼底图像数据集DRIVE上进行血管分割, 实验结果表明, 基于多尺度高阶注意力机制的视网膜血管分割方法有效地提高了分割的精度.  相似文献   

19.
眼底图像的视网膜血管分割是眼底图像处理的重要组成部分,视网膜血管对于医学研究和临床诊断有着重要的作用。传统图像分割算法都有一定的缺陷,而相位一致性算法由于不受对亮度和对比度的影响,且有着较好的分割效果,可以用于图像特征的提取和分割。为此提出了将相位一致性算法应用于眼底图像的血管提取中,采用真实的眼底图像数据库进行实践,证明了可较好地用于眼底图像视网膜血管分割。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号