首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 203 毫秒
1.
目的 青光眼是一种可导致视力严重减弱甚至失明的高发眼部疾病。在眼底图像中,视杯和视盘的检测是青光眼临床诊断的重要步骤之一。然而,眼底图像普遍是灰度不均匀的,眼底结构复杂,不同结构之间的灰度重叠较多,受到血管和病变的干扰较为严重。这些都给视盘与视杯的分割带来很大挑战。因此,为了更准确地提取眼底图像中的视杯和视盘区域,提出一种基于双层水平集描述的眼底图像视杯视盘分割方法。方法 通过水平集函数的不同层级分别表示视杯轮廓和视盘轮廓,依据视杯与视盘间的位置关系建立距离约束,应用图像的局部信息驱动活动轮廓演化,克服图像的灰度不均匀性。根据视杯与视盘的几何形状特征,引入视杯与视盘形状的先验信息约束活动轮廓的演化,从而实现视杯与视盘的准确分割。结果 本文使用印度Aravind眼科医院提供的具有视杯和视盘真实轮廓注释的CDRISHTI-GS1数据集对本文方法进行实验验证。该数据集主要用来验证视杯及视盘分割方法的鲁棒性和有效性。本文方法在数据集上对视杯和视盘区域进行分割,取得了67.52%的视杯平均重叠率,81.04%的视盘平均重叠率,0.719的视杯F1分数和0.845的视盘F1分数,结果优于基于COSFIRE(combination of shifted filter responses)滤波模型的视杯视盘分割方法、基于先验形状约束的多相Chan-Vese(C-V)模型和基于聚类融合的水平集方法。结论 实验结果表明,本文方法能够有效克服眼底图像灰度不均匀、血管及病变区域的干扰等影响,更为准确地提取视杯与视盘区域。  相似文献   

2.
基于C-V模型的眼底图像交互式杯盘分割   总被引:1,自引:1,他引:0  
针对眼底图像视杯和视盘水平集分割中C-V模型自适应能力不强等问题,提出一种基于C-V模型的视盘和视杯交互式水平集分割算法。该方法通过交互方式给定不同的视盘初始轮廓和C-V模型参数,对眼底图像的杯盘进行精确地分割。实验结果表明,该方法可克服噪声污染、光照不均匀、对比度低等特点对眼底图像分割的影响,对彩色眼底图像中的视杯和视盘进行精确分割。  相似文献   

3.
目的 医学图像分割结果可帮助医生进行预测、诊断及制定治疗方案。医学图像在采集过程中受多种因素影响,同一组织往往具有不同灰度,且伴有强噪声。现有的针对医学图像的分割方法,对图像的灰度分布描述不够充分,不足以为精确的分割图像信息,且抗噪性较差。为实现医学图像的精确分割,提出一种多描述子的活动轮廓(MDAC)模型。方法 首先,引入图像的熵,结合图像的局部均值和方差共同描述图像的灰度分布。其次,在贝叶斯框架下,引入灰度偏移因子,建立活动轮廓模型的能量泛函。最后,利用梯度下降流法得到水平集演化公式,演化的最后在完成分割的同时实现偏移场的矫正。结果 利用合成图像和心脏、血管和脑等医学图像进行了仿真实验。利用MDAC模型对加噪的灰度不均图像进行分割,结果显示,在完成精确分割的同时实现了纠偏。通过对比分割前后图像的灰度直方图,纠偏图像只包含对应两相的两个峰,且界限更加清晰;与经典分割算法进行对比,MDAC在视觉效果和定量分析中,分割效果最好,比LIC的分割精度提高了30%多。结论 实验结果表明,利用均值、方差和局部熵共同描述图像灰度分布,保证了算法的精度。局部熵的引入,在保证算法精度的同时,提高了算法的抗噪性。能泛中嵌入偏移因子,保证算法精确分割的同时实现偏移场纠正,进一步提高分割精度。  相似文献   

4.
目的 医学图像的像素级标注工作需要耗费大量的人力。针对这一问题,本文以医学图像中典型的眼底图像视盘分割为例,提出了一种带尺寸约束的弱监督眼底图像视盘分割算法。方法 对传统卷积神经网络框架进行改进,根据视盘的结构特点设计新的卷积融合层,能够更好地提升分割性能。为了进一步提高视盘分割精度,本文对卷积神经网络的输出进行了尺寸约束,同时用一种新的损失函数对尺寸约束进行优化,所提的损失公式可以用标准随机梯度下降方法来优化。结果 在RIM-ONE视盘数据集上展开实验,并与经典的全监督视盘分割方法进行比较。实验结果表明,本文算法在只使用图像级标签的情况下,平均准确识别率(mAcc)、平均精度(mPre)和平均交并比(mIoU)分别能达到0.852、0.831、0.827。结论 本文算法不需要专家进行像素级标注就能够实现视盘的准确分割,只使用图像级标注就能够得到像素级标注的分割精度。缓解了医学图像中像素级标注难度大的问题。  相似文献   

5.
赵德  何传江  陈强 《计算机工程》2012,38(5):211-212,215
针对多相C-V模型计算复杂性高、对初始轮廓敏感等问题,提出一种结合区域梯度的活动轮廓模型。该模型对演化曲线内部区域使用梯度进行拟合,对演化曲线外部区域使用灰度进行拟合。实验结果表明,相对于多相C-V模型,该模型能快速分割多相图像,对初始轮廓不敏感。  相似文献   

6.
目的 由于计算机断层血管造影(CTA)图像的复杂性,临床诊断冠脉疾病往往需要经验丰富的医师对冠状动脉进行手动分割,快速、准确自动分割出冠状动脉对提高冠脉疾病诊断效率具有重要意义。针对双源CT图像特点以及传统单一基于区域或边界的活动轮廓模型的不足,研究了心脏冠脉3维分割算法,提出一种基于血管形状约束的活动轮廓模型分割方法。方法 首先,利用改进的FCM(fuzzy C-means)对心脏CT图像感兴趣区域初分割,其结果用于初始化C-V模型水平集演化曲线及控制参数,提取感兴趣区域轮廓。接着,由3维心脏图像数据获取多尺度梯度矢量信息构造边界型能量泛函,然后利用基于Hessian矩阵的多尺度血管函数对心脏感兴趣区域3维体数据增强滤波,获取血管先验形状信息用于约束能量泛函。最后融合边界、区域能量泛函并利用变分原理及水平集方法得到适合冠脉血管分割的水平集演化方程。结果 由于血管图像的灰度不均匀,血管末端区域更为细小,所以上述算法的实施是面向被划分多个子区域的血管,在缩小的范围内进行轮廓的演化。相比于传统的血管分割方法,该方法充分融合血管图像的先验信息及梯度场信息,能够从灰度及造影剂分布不均匀的冠脉血管图像中准确分割出冠状动脉,对于细小的血管结构亦能获得较好的分割效果。实验结果表明,该方法只需在给定初始轮廓前提下,有效提取3维冠脉血管。结论 对多组心脏CT图像进行分割,本文基于血管先验形状约束的活动轮廓模型可以准确分割出冠脉结构完整轮廓,并且人工交互简单。该方法在双源CT冠脉图像自动分割方面具有较好的正确率与优越性。  相似文献   

7.
目的 青光眼会对人的视力造成不可逆的损伤,从眼底图像中精确地分割视盘和视杯是青光眼诊治中的一项重要工作,为有效提升视盘和视杯的分割精度,本文提出了融合上下文和注意力的视盘视杯分割方法(context attention U-Net,CA-Net)。方法 进行极坐标转换,在极坐标系下进行分割可以平衡数据分布。使用修改的预训练ResNet作为特征提取网络,增强特征提取能力。采用上下文聚合模块(context aggregation module,CAM)多层次聚合图像上下文信息,使用注意力指导模块(attention guidance module,AGM)对融合后的特征图进行特征重标定,增强有用特征;使用深度监督思想同时对浅层网络权重进行训练,同时在视杯分割网络中引入了先验知识,约束对视杯的分割。结果 在3个数据集上与其他方法进行对比实验,在Drishti-GS1数据集中,分割视盘的Dice (dice coefficient)和IOU (intersection-over-union)分别为0.981 4和0.963 5,分割视杯的Dice和IOU分别为0.926 6和0.863 3;在RIM-ONE (retinal image database for optic nerve evaluation)-v3数据集中,分割视盘的Dice和IOU分别为0.976 8和0.954 6,分割视杯的Dice和IOU分别为0.864 2和0.760 9;在Refuge数据集中,分割视盘的Dice和IOU分别为0.975 8和0.952 7,分割视杯的Dice和IOU分别为0.887 1和0.797 2,均优于对比算法。同时,消融实验验证了各模块的有效性,跨数据集实验进一步表明了CA-Net的泛化性,可视化图像也表明CA-Net能够分割出更接近标注的分割结果。结论 在Drishti-GS1、RIM-ONE-v3和Refuge三个数据集的测试结果表明,CA-Net均能取得最优的视盘和视杯分割结果,跨数据集测试结果也更加表明了CA-Net具有良好的泛化性能。  相似文献   

8.
改进K-means活动轮廓模型   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 通过对C-V模型能量泛函的Euler-Lagrange方程进行变形,建立其与K-means方法的等价关系,提出一种新的基于水平集函数的改进K-means活动轮廓模型。方法 该模型包含局部自适应权重矩阵函数,它根据像素点所在邻域的局部统计信息自适应地确定各个像素点的分割阈值,排除灰度非同质对分割目标的影响,进而实现对灰度非同质图像的精确分割。结果 通过分析对合成以及自然图像的分割结果,与传统及最新经典的活动轮廓模型相比,新模型不仅能较准确地分割灰度非同质图像,而且降低了对初始曲线选取的敏感度。结论 提出了包含权重矩阵函数的新活动轮廓模型,根据分割目的和分割图像性质,制定不同的权重函数,该模型具有广泛的适用性。文中给出的一种具有局部统计特性的权重函数,对灰度非同质图像的效果较好,且对初始曲线位置具有稳定性。  相似文献   

9.
目的 由于CV模型仅利用了图像的全局信息,其对灰度不均匀图像的分割效果不理想,同时在分割弱边缘和弱纹理图像时,优化易陷入局部最优从而导致分割效率低下,且对初始位置的选择较为敏感。针对这些问题,提出一种结合分数阶微分和图像局部信息的CV模型。方法 首先将分数阶梯度信息融入图像的局部信息中,用来替代CV模型的整数阶全局信息,并建立自适应计算分数阶最佳阶次的数学模型,然后在模型中加入符号距离的约束项。结果 一方面,用局部信息代替全局信息,可以在一定程度上解决CV模型对灰度不均匀图像分割效果不理想的问题。另一方面,将Grünwald-Letnikov分数阶梯度信息融合到局部信息中,当分数阶阶次0 < α < 1时,增加了图像灰度不均匀、弱边缘、弱纹理区域的梯度信息,从而增加了演化驱动力避免演化曲线陷入局部最优,有效地解决了图像因灰度变化不大导致演化曲线驱动力小的问题,在一定程度上解决了模型对初始轮廓位置选择和对噪声敏感的问题。同时为了解决人工选取最佳分数阶阶次费时费力的问题,根据图像的梯度模值和信息熵建立计算分数阶最佳阶次的数学模型,将此自适应分数阶模型应用到算法之中,以自适应确定最佳分数阶阶次。此外,为了避免模型的重新初始化,在模型中加入符号距离的约束项,从而提高了曲线的演化效率。结论 理论分析和实验结果均表明,该算法能够较好地分割灰度不均匀、弱边缘和弱纹理区域的图像,并能根据图像特征自适应确定最佳分数阶阶次,提高了分割精度和分割效率,且对初始轮廓位置选择及噪声均具有一定的鲁棒性。  相似文献   

10.
融合全局和局部相关熵的图像分割   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 针对LCK(local correntropy-based K-means)模型对初始轮廓敏感的问题,提出了新的基于全局和局部相关熵的GLCK(global and local correntropy-based K-means)动态组合模型。方法 首先将相关熵准则引入到CV(Chan-Vese)模型中,得到新的基于全局相关熵的GCK(global correntropy-based K-means)模型。然后,结合LCK模型,提出GLCK组合模型,并给出一种动态组合算法来优化GLCK模型。该模型分两步来完成分割:第1步,用GCK模型分割出目标的大致轮廓;第2步,将上一步得到的轮廓作为LCK模型的初始轮廓,对图像进行精确分割。结果 主观上,对自然图像和人工合成图像进行分割,并同LCK模型、LBF模型以及CV模型进行对比,结果表明本文所提模型的鲁棒性比上述模型都要好;客观上,对BSD库中的两幅自然图像进行分割,并采用Jaccard相似性比率进行定量分析,准确率分别为91.37%和89.12%。结论 本文算法主要适用于分割含有未知噪声及灰度分布不均匀的医学图像及结构简单的自然图像,并且分割结果对初始轮廓具有鲁棒性。  相似文献   

11.
目的 青光眼是导致失明的主要疾病之一,视盘区域的形状、大小等参数是青光眼临床诊断的重要指标。然而眼底图像通常亮度低、对比度弱,且眼底结构复杂,各组织以及病灶干扰严重。为解决上述问题,实现视盘的精确检测,提出一种视觉显著性的眼底图像视盘检测方法。方法 首先,依据视盘区域显著的特点,采用一种基于视觉显著性的方法对视盘区域进行定位;其次,采用全卷积神经网络(fully convolutional neural network,FCN)预训练模型提取深度特征,同时计算视盘区域的平均灰度,进而提取颜色特征;最后,将深度特征、视盘区域的颜色特征和背景先验信息融合到单层元胞自动机(single-layer cellular automata,SCA)中迭代演化,实现眼底图像视盘区域的精确检测。结果 在视网膜图像公开数据集DRISHTI-GS、MESSIDOR和DRIONS-DB上对本文算法进行实验验证,平均相似度系数分别为0.965 8、0.961 6和0.971 1;杰卡德系数分别为0.934 1、0.922 4和0.937 6;召回率系数分别为0.964 8、0.958 9和0.967 4;准确度系数分别为0.996 6、0.995 3和0.996 8,在3个数据集上均可精确地检测视盘区域。实验结果表明,本文算法精确度高,鲁棒性强,运算速度快。结论 本文算法能够有效克服眼底图像亮度低、对比度弱及血管、病灶等组织干扰的影响,在多个视网膜图像公开数据集上进行验证均取得了较好的检测结果,具有较强的泛化性,可以实现视盘区域的精确检测。  相似文献   

12.
电子文本病历语料库可提供相关医学影像的定性诊断结果,但缺乏直观影像和文本标注信息,不利于有效管理医学数据和医科学生自主学习相关医学知识.针对此问题,文中提出基于深度水平集算法的医学影像分割方法,对医学影像进行自动分割,给出感兴趣区域的轮廓结果及相关定量指标,并结合自然语言处理方法实现电子病历文本的标注,增强影像与文本病历多模态语料库的信息表征能力.在青光眼影像数据上的实验表明,文中方法可精准分割眼底图像中视盘和视杯,有效构建具有直观影像标记与对应病历文本的多模态语料库.  相似文献   

13.
为了解决多主体图像分割的交互分割问题,提出了一种基于SLIC超像素的自适应图像分割算法。首先利用SLIC对图像进行超像素分割处理,把原图像分割为大小相似、形状规则的超像素,以超像素中心点的五维特征值作为原始数据点通过自适应参数的DBSCAN算法聚类,确定多主体数目和分割边界。算法不需要用户交互,自适应确定分割数目。为了验证算法的有效性,在伯克利大学标准数据集BSDS500上与人工标注的分割图像进行比较, 前期的超像素处理使算法在时间上有很好的提升,对于一幅481×321像素的图像,只需要1.5 s就可以获得结果。实验结果表明,该方法可以有效解决多主体图像分割中的人工交互问题,同时在PRI和VOI的指数对比上也优于传统算法,本文算法可以在保证分割效果的基础上自适应确定分割数目,提高分割效率。  相似文献   

14.

Diseases of the eye require manual segmentation and examination of the optic disc by ophthalmologists. Though, image segmentation using deep learning techniques is achieving remarkable results, it leverages on large-scale labeled datasets. But, in the field of medical imaging, it is challenging to acquire large labeled datasets. Hence, this article proposes a novel deep learning model to automatically segment the optic disc in retinal fundus images by using the concepts of semi-supervised learning and transfer learning. Initially, a convolutional autoencoder (CAE) is trained to automatically learn features from a large number of unlabeled fundus images available from the Kaggle’s diabetic retinopathy (DR) dataset. The autoencoder (AE) learns the features from the unlabeled images by reconstructing the input images and becomes a pre-trained network (model). After this, the pre-trained autoencoder network is converted into a segmentation network. Later, using transfer learning, the segmentation network is trained with retinal fundus images along with their corresponding optic disc ground truth images from the DRISHTI GS1 and RIM-ONE datasets. The trained segmentation network is then tested on retinal fundus images from the test set of DRISHTI GS1 and RIM-ONE datasets. The experimental results show that the proposed method performs on par with the state-of-the-art methods achieving a 0.967 and 0.902 dice score coefficient on the test set of the DRISHTI GS1 and RIM-ONE datasets respectively. The proposed method also shows that transfer learning and semi-supervised learning overcomes the barrier imposed by the large labeled dataset. The proposed segmentation model can be used in automatic retinal image processing systems for diagnosing diseases of the eye.

  相似文献   

15.
针对在分割多个目标时多相水平集模型对初始轮廓曲线敏感且计算量大的问题, 提出采用模糊C 均值聚类算法将图像进行粗分割,初始化多相水平集函数,使用图割算法分割 出多相结果的方法。该方法能有效减小多相水平集算法对初始轮廓曲线的敏感性,使图割算法 在分割图像时更容易分割出理想的目标轮廓;同时,采用图割算法可使水平集函数很快收敛到 能量最小值,有效减少计算量,提高计算效率。实验表明该方法具有较好地分割效果和较高地 分割效率。  相似文献   

16.
目的 多相图像分割是图像处理与分析的重要问题,变分图像分割的Vese-Chan模型是多相图像分割的基本模型,由于该模型使用较少的标签函数构造区域划分的特征函数,具有求解规模小的优点。图割(graph cut,GC)算法可将上述能量泛函的极值问题转化为最小割/最大流问题求解,大大提高了计算效率。连续最大流(continuous max-flow,CMF)方法是经典GC算法的连续化表达,不仅具备GC算法的高效性,且克服了经典GC算法由于离散导致的精度下降问题。本文提出基于凸松弛的多相图像分割Vese-Chan模型的连续最大流方法。方法 根据划分区域编号的二进制表示构造两类特征函数,将多相图像分割转化为多个交替优化的两相图像分割问题。引入对偶变量将Vese-Chan模型转化为与最小割问题相对应的连续最大流问题,并引入Lagrange乘子设计交替方向乘子方法(alternating direction method of multipliers,ADMM),将能量泛函的优化问题转化为一系列简单的子优化问题。结果 对灰度图像和彩色图像进行数值实验,从分割效果看,本文方法对于医学图像、遥感图像等复杂图像的分割效果更加精确,对分割对象和背景更好地分离;从分割效率看,本文方法减少了迭代次数和运算时间。在使用2个标签函数的分割实验中,本文方法运算时间加速比分别为6.35%、10.75%、12.39%和7.83%;在使用3个标签函数的分割实验中,运算时间加速比分别为12.32%、15.45%和14.04%;在使用4个标签函数的分割实验中,运算时间加速比分别为16.69%和20.07%。结论 本文提出的多相图像分割Vese-Chan模型的连续最大流方法优化了分割效果,减少了迭代次数,从而提高了计算效率。  相似文献   

17.
结合改进FCM算法的多相位CV模型   总被引:2,自引:0,他引:2       下载免费PDF全文
Chan-Vese模型以其能较好地处理图像的模糊边界和复杂拓扑结构而广泛运用于图像分割中。但对于灰度不均匀性和多目标的分割效果较差。模糊聚类(FCM)算法作为一种无监督聚类算法已成功应用到目标识别和图像分割等领域。然而FCM算法没有考虑像素的空间信息对噪声敏感。针对这些问题,提出一种结合改进FCM算法的多相位CV模型。首先,基于直方图统计灰度种类、并利用邻域内计算的空间信息修正隶属度函数,这样克服了灰度不均匀性和噪声的影响。再将改进后的FCM算法应用到CV模型的区域检测项,可较准确地使像素点归类,以此作为曲线的演化依据。在演化时采用一种各项异性的模板来控制轮廓线的及时分裂,在较短时间内分割出更多目标。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号