首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 187 毫秒
1.
麻文静  王雪津  邢树礼  毛国君 《软件》2024,(1):21-24+37
眼底视网膜血管分割在多种类型眼科疾病的评估和诊断中起着重要作用。由于眼底图像中血管的拓扑结构复杂多变,现有算法通常存在分割结果中血管特征不连续以及血管边缘分割准确度不高的问题。针对上述问题,本文提出一种用于视网膜血管分割的多尺度全局注意力U型神经网络MSGA-UNet。该网络一方面通过全局特征注意力模块从编码器中较为容易地获得图像的全局表征信息,解决眼底视网膜血管分割中特征不连续的问题;另一方面利用多尺度空洞卷积模块,利用不同膨胀率的空洞卷积扩大感受野并获取图像的多尺度局部特征信息,从而提升血管边缘信息的提取能力。经过在DRIVE、STARE和CHASEDB1数据集上的实验,MSGA-UNet的平均交并比分别为74.06%、78.22%和79.62%;类别平均像素准确率分别为80.39%、84.60%和85.53%;精确度分别为96.32%,96.42%和97.23%;综合分割性能优于其他模型。  相似文献   

2.
针对视网膜血管图像特征信息复杂程度高,现有算法存在微血管分割较低和病理信息误分割等问题,提出一种融合DenseNet和U-Net网络的血管分割模型。首先,通过限制对比度直方图均衡化和filter滤波对图像进行血管增强处理;其次利用局部自适应Gamma提升图像亮度信息并降低伪影的干扰;再次,由多尺度形态学滤波局部增强微血管特征信息;最后,利用U型密集连接模块进行分割。该算法在DRIVE数据集上实验,其平均准确率、灵敏度和特异性分别高达96.74%、81.50%和98.20%。  相似文献   

3.
视网膜血管分割是眼科计算机辅助诊断和大规模眼科疾病筛查系统的基础。为辅助眼科医生进行眼底疾病的诊断,文中提出了一种基于相位拉伸变换(PST)和多尺度高斯滤波的视网膜血管分割方法。首先,将彩色眼底影像的绿色通道分量图进行增强预处理;然后采用不同尺度的高斯滤波器对预处理增强后的视网膜血管进行降噪处理,再结合PST边缘检测算法初步获得视网膜血管分割图;最后整合初步获得的视网膜血管分割图并进行形态学去噪,获得最终的视网膜血管分割图。通过在视网膜图像库DRIVE上进行实验,其平均准确率为93%,平均灵敏度达77%,平均特异性为95%,该实验结果验证了文中方法的有效性。  相似文献   

4.
游嘉  陈波 《计算机应用》2011,31(6):1560-1562
眼底视网膜图像的血管增强在眼科诊断中具有广泛的研究价值。提出了一种基于Hessian矩阵的多尺度血管增强方法,给出了应用的方案和过程,并在DRIVE眼底图像数据库上进行实验。与其他血管增强方法相比,该方案可达到相当的准确率,且在同等准确率下具有较高的鲁棒性。  相似文献   

5.
眼底视网膜血管图像的纹理与结构信息可作为医学对相关疾病诊断的重要依据。针对视网膜血管存在伪影与尺度结构复杂等难题以及微血管分割较低等问题,提出一种基于多尺度滤波的有监督学习视网膜血管分割算法。采用二维K-L变换综合分析彩色图像三通道的频带信息得到视网膜灰度图像,并利用受限对比度直方图均衡化增强血管与背景的对比度,利用Retinex降低伪影与视盘的干扰;由多尺度高斯匹配滤波、多尺度形态学滤波、Frangi滤波以及2D-Gabor滤波提取相关血管特征,并将提取好的特征集由AdaBoost初步提取血管;利用血管连通域信息去除初分割结果的非血管像素,获得最终的血管图像。该算法在DRIVE与STARE数据集上实验,准确率分别达到96.34%与95.83%。  相似文献   

6.
基于多尺度2D Gabor小波的视网膜血管自动分割   总被引:2,自引:0,他引:2  
眼底视网膜血管分割对临床视网膜疾病诊断具有重要意义. 由于视网膜血管结构微小, 血管轮廓边界模糊, 加上图像采集时噪声的影响, 视网膜血管分割非常困难. 本文提出一种视网膜血管自动分割新方法. 首先, 应用对比度受限的自适应直方图均衡法增强视网膜图像;然后, 采用不同尺度的2D Gabor小波对视网膜图像进行变换, 并分别应用形态学重构 (Morphological reconstruction, MR)和区域生长法 (Region growing, RG)对变换后的图像进行分割; 最后, 对以上两种方法分割的视网膜血管和背景像素点重新标记识别, 得到视网膜血管最终分割结果. 通过对DRIVE和STARE数据库视网膜图像的分割实验, 证明了该算法的有效性.  相似文献   

7.
二维(2D)医学图像分割在疾病诊断和计算机辅助治疗中具有重要作用.针对2D医学图像由于目标大小、形状不一以及边界模糊而难以精确分割的问题,提出一种结合多尺度通道注意力和边界增强的2D医学图像分割方法.首先以2D医学图像作为输入,并利用编码器和边界增强模块从中分别提取出高级特征图和边界分割结果;然后利用多尺度通道注意力模块从高级特征图中提取出不同尺度的上下文信息,增强其中有用的特征并抑制无用的特征响应;最后将得到的上下文信息传入解码器中获得区域分割结果,并与边界分割结果进行整合,得到最终的分割结果.为了化解医学图像中出现的数据不平衡问题,提出一种自定义的损失函数.在包含残根的牙齿全景片、包含龋齿的牙齿全景片、视网膜血管和皮肤病灶4个数据集上的实验结果表明,所提方法的分割精确率分别达到了85.63%,70.15%,75.86%和85.92%;与其他医学图像分割方法相比,所提方法表现更佳.  相似文献   

8.
针对现有算法因视网膜细小血管分割不足和抗噪声能力弱导致其分割精度低等问题,提出一种融合多层空间注意的U型视网膜血管分割算法.首先,在编码和解码部分采用特征增强残差模块,引入通道注意机制提高网络模型对血管特征的分割能力.其次,在U型网络的底部引入密集空洞卷积模块,增大感受野提取血管多尺度特征.最后,在跳跃连接阶段使用三端空间注意模块进行特征自适应细化,有效抑制特征图中的噪声.在DRIVE和STARE公开眼底图像数据集上验证本文算法,实验结果表明,所提算法准确率分别达到了0.9643和0.9683,灵敏度分别达到了0.8329和0.8224,AUC值分别达到了0.9861和0.9897.其性能指标整体优于现有先进算法.  相似文献   

9.
视网膜血管分割对于辅助医生诊断糖尿病性视网膜病变、黄斑萎缩、青光眼等眼科疾病具有重要意义.注意力机制被广泛用于U-Net及其变体中以提高血管分割模型的性能.为进一步提高视网膜血管的分割精度,挖掘视网膜图像中的高阶及全局上下文信息,本文提出基于多尺度高阶注意力机制的模型(multi-scale high-order attention network, MHA-Net).首先,多尺度高阶注意力(multi-scale high-order attention, MHA)模块从深层特征图中提取多尺度和全局特征计算初始化注意力图,从而改进模型处理医学图像分割时尺度不变的缺陷.接下来,该模块通过图的传递闭包构建注意力图,进而提取高阶的深层特征.通过将多尺度高阶注意力模块应用于编码器-解码器结构中,在彩色眼底图像数据集DRIVE上进行血管分割,实验结果表明,基于多尺度高阶注意力机制的视网膜血管分割方法有效地提高了分割的精度.  相似文献   

10.
针对视网膜血管形态结构复杂、特征信息多变的特点,提出一种结合残差网络和多尺度特征融合的U型视网膜分割算法。依次采用限制对比度直方图均衡化和局部自适应Gamma对原始视网膜图像进行预处理,得到血管增强、亮度提升的图像;将其输入至搭建的U型网络中进行端到端训练,该网络将U-Net原始卷积块替换为残差卷积块,实现对特征的复用,首尾的并行多分支结构和底部的金字塔池化结构扩大提取特征的感受野,在解码阶段加入带有注意力机制的跳跃连接改善视网膜血管的分割性能;通过sigmoid激活函数得到最终分割结果。在DRIVE数据集上进行实验,该算法准确率、敏感度和AUC分别为96.34%、84.61%和98.53%。  相似文献   

11.
针对视网膜图像采集过程中由于疾病引起的图像光照反射过强问题,提出了一种修正的形态学与Otsu相结合的无监督视网膜血管分割算法。首先运用形态学中的高低帽变换增强血管与背景的对比度;然后提出了一种修正方法,消除部分由视网膜疾病引起的光照问题;最后使用Otsu阈值方法分割血管。算法在DRIVE和STARE视网膜图像数据库中进行了测试,实验结果表明,DRIVE数据库中的分割精度为0.9382,STARE数据库中的分割精度为0.9460,算法的执行时间为1.6s。算法能够精确地分割出视网膜血管,与传统的无监督视网膜血管分割算法相比,算法的分割精度高、抗干扰能力强。  相似文献   

12.
Automatic extraction of retinal vessels is of great significance in the field of medical diagnosis. Unfortunately, extracting vessels in retinal images with uneven background is a challenging task. In addition, accurate extraction of vessels with different widths is difficult. Aiming at these problems, in this paper, a new dynamic multi-scale filtering method together with a dynamic threshold processing scheme was proposed. The image is first divided into sub-images to facilitate the analysis of gray features. Then for each sub-image, the scales of the matched filter and the segmentation threshold are dynamically determined in accordance with the Gaussian fitting results of the gray distribution. Compared with the current blood vessel extraction algorithms based on multi-scale matched filter using uniform scales for the whole retinal image, the proposed method detects many fine vessels drowned by noise and avoids an overestimation of the thin vessels while improving the accuracy of segmentation in general.  相似文献   

13.

To improve the accuracy of retinal vessel segmentation, a retinal vessel segmentation algorithm for color fundus images based on back-propagation (BP) neural network is proposed according to the characteristics of retinal blood vessels. Four kinds of green channel image enhancement results of adaptive histogram equalization, morphological processing, Gaussian matched filtering, and Hessian matrix filtering are used to form feature vectors. The BP neural network is input to segment blood vessels. Experiments on the color fundus image libraries DRIVE and STARE show that this algorithm can obtain complete retinal blood vessel segmentation as well as connected vessel stems and terminals. When segmenting most small blood vessels, the average accuracy on the DRIVE library reaches 0.9477, and the average accuracy on the STARE library reaches 0.9498, which has a good segmentation effect. Through verification, the algorithm is feasible and effective for blood vessel segmentation of color fundus images and can detect more capillaries.

  相似文献   

14.

Automatic extraction of blood vessels is an important step in computer-aided diagnosis in ophthalmology. The blood vessels have different widths, orientations, and structures. Therefore, the extracting of the proper feature vector is a critical step especially in the classifier-based vessel segmentation methods. In this paper, a new multi-scale rotation-invariant local binary pattern operator is employed to extract efficient feature vector for different types of vessels in the retinal images. To estimate the vesselness value of each pixel, the obtained multi-scale feature vector is applied to an adaptive neuro-fuzzy inference system. Then by applying proper top-hat transform, thresholding, and length filtering, the thick and thin vessels are highlighted separately. The performance of the proposed method is measured on the publicly available DRIVE and STARE databases. The average accuracy 0.942 along with true positive rate (TPR) 0.752 and false positive rate (FPR) 0.041 is very close to the manual segmentation rates obtained by the second observer. The proposed method is also compared with several state-of-the-art methods. The proposed method shows higher average TPR in the same range of FPR and accuracy.

  相似文献   

15.
为解决现有眼底图像分割方法对于细微血管存在低分割精度和低准确率的问题,提出一种基于编解码结构的U-Net改进网络模型。首先对数据进行预处理与扩充,提取绿色通道图像,并将其通过对比度限制直方图均衡化和伽马变换以增强对比度;其次训练集被输入到用于分割的神经网络中,在编码过程加入残差模块,用短跳跃连接将高、低特征信息融合,并利用空洞卷积增加感受野,解码模块加入注意力机制增加对细微血管分割精度;最后利用训练完成的分割模型进行预测得出视网膜血管分割结果。在DRIVE和CHASE-DB1眼底图像数据集上进行对比实验,模型算法的平均准确率、特异性和灵敏度分别达到96.77%和97.22%、98.74%和98.40%、80.93%和81.12%。实验结果表明该算法能够改善微细血管分割准确率及效率不高的问题,对视网膜血管可以进行更准确的分割。  相似文献   

16.
针对传统视网膜图像血管分割中部分血管轮廓粗糙、血管末梢和分支细节丢失等问题,提出 一种结合线性谱聚类超像素与生成对抗网络(Generative Adversarial Networks,GAN)的视网膜血管分割 方法。该方法首先对 GAN 进行改进,采用空洞空间金字塔池化模块的多尺度特征提取来提高 GAN 分 割精度,在获得视网膜血管分割图像后,利用线性谱聚类超像素分割的边缘贴合性高、轮廓清晰的特 点,将 GAN 输出图像映射到超像素分割图再对像素块进行分类,以达到分割的效果。仿真实验结果表 明,与传统的视网膜血管分割方法相比,该方法在灵敏度和准确性上有一定提升,轮廓边缘细节方面 有着更好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号