首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 78 毫秒
1.
多器官医学图像分割有助于医生做出临床诊断. 针对CNN提取全局特征能力弱, Transformer提取局部特征能力弱, 以及Transformer具有二次方计算复杂度的问题, 提出了用于多器官医学图像分割的多级特征交互Transformer模型. 所提模型采用CNN提取局部特征, 局部特征经Swin Transformer输出全局特征; 通过下采样分别产生多级局部和全局特征, 每级局部和全局特征经过交互并增强; 每级增强后的特征经多级特征融合模块进行交叉融合; 再次融合后的特征经过上采样和分割头输出分割掩码. 所提模型在Synapse和ACDC数据集上进行实验, 平均DSC和平均HD95系数值为80.16%和19.20 mm, 均优于LGNet和RFE-UNet等代表性模型. 该模型对多器官医学图像分割是有效的.  相似文献   

2.
目的 肿瘤周围高危器官的准确分割是图像引导放射治疗中的关键步骤,也是对抗肺癌和食道癌,规划有效治疗策略的重要组成部分。为了解决不同患者之间器官形状和位置的复杂变化情况以及计算机断层扫描(computed tomography,CT)图像中相邻器官之间软组织对比度低等问题,本文提出了一种深度学习算法对胸部CT图像中的高危器官进行细分。方法 以U-Net神经网络结构为基础,将冠状面下的3个连续切片序列即2.5D (2.5 dimention)数据作为网络输入来获取切片联系,同时利用高效全局上下文实现不降维的跨通道交互、捕获单视图下切片序列间的长距离依赖关系、加强通道联系和融合空间全局上下文信息。在编码部分使用金字塔卷积和密集连接的集成提取多尺度信息,扩大卷积层的感受野,并将解码器与编码器每层进行连接来充分利用多尺度特征,增强特征图的辨识度。考虑到CT图像中多器官形状不规则且紧密相连问题,加入深度监督来学习不同层的特征表示,从而精准定位器官和细化器官边界。结果 在ISBI (International Symposium on Biomedical Imaging)2019 SegTHOR (segmentation of thoracic organs at risk in CT images)挑战赛中,对40个胸部多器官训练样本进行分割,以Dice系数和HD (Hausdorff distance)距离作为主要评判标准,该方法在测试样本中食道、心脏、气管和主动脉的Dice系数分别达到0.855 1、0.945 7、0.923 0和0.938 3,HD距离分别为0.302 3、0.180 5、0.212 2和0.191 8。结论 融合全局上下文和多尺度特征的算法在胸部多器官分割效果上更具竞争力,有助于临床医师实现高效的诊断与治疗。  相似文献   

3.
大小、形状、颜色、纹理的多变性以及肠壁分界模糊给结肠息肉的分割带来巨大挑战.针对单分支网络连续采样操作造成部分细节信息丢失以及不同层次特征信息无法交互进而导致分割效果不佳的问题,提出一种基于局部-全局特征交互的双分支结肠息肉分割网络.网络采用CNN与Transformer双分支结构,逐层捕获息肉局部细节特征与全局语义特征;为充分利用不同层级、不同尺度特征信息的互补性,利用深层语义特征对浅层细节特征的引导与增强,设计特征协同交互模块,动态感知并聚合跨层次特征交互信息;为强化病变区域特征,抑制背景噪声,设计特征增强模块,应用空间与通道注意力机制强化息肉病变区域特征,同时采用结合注意力门的跳跃连接机制进一步突出边界信息,提高边缘区域的分割精度.实验表明,所提出网络在多个息肉分割数据集上取得的mDice与mIoU分数均优于基线网络,具有更高的分割准确率和稳定性.  相似文献   

4.
为了解决图像分割中灰度不均匀和初始轮廓敏感的问题,提出一种基于多尺度局部特征的图像分割模型.与传统局部邻域定义在方形区域不同,该模型采用圆形区域来获取更多的局部信息;考虑到局部区域灰度的变化程度不一,提出利用多尺度结构与均值滤波器相结合的方法获得多尺度局部灰度信息;通过转换灰度不均匀模型得到一个逼近真实信息的图像,并将其融合进局部高斯分布拟合(LGDF)模型,构造出基于多尺度局部特征的能量泛函.从理论分析和实验结果表明:由于多尺度结构弱化了灰度不均匀的影响,该模型既能快速、准确地分割灰度不均匀图像,又表现出对初始轮廓具有较强的鲁棒性.  相似文献   

5.
目的 基于计算机辅助诊断的乳腺肿瘤动态对比增强磁共振成像(dynamic contrast-enhanced magnetic resonance imaging,DCE-MRI)检测和分类存在着准确度低、缺乏可用数据集等问题。方法 针对这些问题,建立一个乳腺DCE-MRI影像数据集,并提出一种将面向局部特征学习的卷积神经网络(convolutional neural network, CNN)和全局特征学习的视觉Transformer(vision Transformer,ViT)方法相融合的局部—全局跨注意力融合网络(local global cross attention fusion network,LG-CAFN),用于实现乳腺肿瘤DCE-MRI影像自动诊断,以提高乳腺癌的诊断准确率和效率。该网络采用跨注意力机制方法,将CNN分支提取出的图像局部特征和ViT分支提取出的图像全局特征进行有效融合,从而获得更具判别性的图像特征用于乳腺肿瘤DCE-MRI影像良恶性分类。结果 在乳腺癌DCE-MRI影像数据集上设置了两组包含不同种类的乳腺DCE-MRI序列实验,并与VGG16(Vis...  相似文献   

6.
目的 目标语义特征提取效果直接影响图像语义分割的精度,传统的单尺度特征提取方法对目标的语义分割精度较低,为此,提出一种基于多尺度特征融合的工件目标语义分割方法,利用卷积神经网络提取目标的多尺度局部特征语义信息,并将不同尺度的语义信息进行像素融合,使神经网络充分捕获图像中的上下文信息,获得更好的特征表示,有效实现工件目标的语义分割。方法 使用常用的多类工件图像定义视觉任务,利用残差网络模块获得目标的单尺度语义特征图,再结合本文提出的多尺度特征提取方式获得不同尺度的局部特征语义信息,通过信息融合获得目标分割图。使用上述方法经多次迭代训练后得到与视觉任务相关的工件目标分割模型,并对训练权重与超参数进行保存。结果 将本文方法和传统的单尺度特征提取方法做定性和定量的测试实验,结果表明,获得的分割网络模型对测试集中的目标都具有较精确的分割能力,与单尺度特征提取方法相比,本文方法的平均交并比mIOU(mean intersection over union)指标在验证集上训练精度提高了4.52%,在测试集上分割精度提高了4.84%。当测试样本中包含的目标种类较少且目标边缘清晰时,本文方法能够得到更精准的分割结果。结论 本文提出的语义分割方法,通过多尺度特征融合的方式增强了神经网络模型对目标特征的提取能力,使训练得到的分割网络模型比传统的单尺度特征提取方式在测试集上具有更优秀的性能,从而验证了所提出方法的有效性。  相似文献   

7.
深度学习的发展加快了图像语义分割的研究.目前,最有效的图像语义分割研究方法大部分都是基于全卷积神经网络(FCNN),尽管现有的语义分割方法能有效地对图像进行整体分割,但对于图像中的重叠遮挡物体不能清晰地识别出边缘信息,也不能有效地融合图像高低层的特征信息.针对以上问题,在采用FCNN来解决图像语义分割问题的基础上,利用...  相似文献   

8.
该文结合多尺度技术与谱分析方法,提出了基于多尺度谱特征的图像分割方法,并将之用于SAR图像分割。该方法在多尺度框架内,提取每个像素在不同尺度下的局部谱特征(AR模型参数),并组合各尺度的谱特征为一多尺度谱特征向量,作为该像素的分类特征,利用一基于二元假设检验的分类器对该像素分类。与单一尺度的谱特征分割方法相比,多尺度谱特征分割保留了算法简单的优点的同时,在小窗口情况下,仍能给出较平滑的分割结果,从而减小了计算复杂度。  相似文献   

9.
10.
基于特征尺度及多尺度分解的纹理分割   总被引:1,自引:0,他引:1  
罗晓晖  李见为 《计算机工程》2003,29(3):124-125,168
在计算机视觉领域,纹理识别及分割是图像低层次处理中一个重要的问题。文章依据视觉信息处理的生理学理论,提出了一种新的纹理分析算法。该算法通过搜寻纹理图像的特征尺度并配合连续整数尺度滤波上的特征尺度统计对纹理进行分层分析。并基于特征尺度上的分层分析提出一种纹理分割算法。实验结果证明了该算法的有效性。  相似文献   

11.
目的 手术器械分割是外科手术机器人精准操作的关键环节之一,然而,受复杂因素的影响,精准的手术器械分割目前仍然面临着一定的挑战,如低对比度手术器械、复杂的手术环境、镜面反射以及手术器械的尺度和形状变化等,造成分割结果存在模糊边界和细节错分的问题,影响手术器械分割的精度。针对以上挑战,提出了一种新的手术器械分割网络,实现内窥镜图像中手术器械的准确分割。方法 为了实现内窥镜图像的准确表征以获取有效的特征图,提出了基于卷积神经网络(convolutional neural network,CNN)和Transformer融合的双编码器结构,实现分割网络对细节特征和全局上下文语义信息的提取。为了实现局部特征图的特征增强,引入空洞卷积,设计了多尺度注意融合模块,以获取多尺度注意力特征图。针对手术器械分割面临的类不均衡问题,引入全局注意力模块,提高分割网络对手术器械区域的关注度,并减少对于无关特征的关注。结果 为了有效验证本文模型的性能,使用两个公共手术器械分割数据集进行性能分析和测试。基于定性分析和定量分析通过消融实验和对比实验,验证了本文算法的有效性和优越性。实验结果表明:在Kvasir-instrument数据集上,本文算法的Dice分数和mIOU (mean intersection over union)值分别为96.46%和94.12%;在Endovis2017 (2017 Endoscopic Vision Challenge)数据集上,本文算法的Dice分数和mIOU值分别为96.27%和92.55%。相较于对比的先进分割网络,本文算法实现了分割精度的有效提升。同时,消融研究也证明了本文算法方案设计的合理性,缺失任何一个子模块都会造成不同程度的精度损失。结论 本文所提出的分割模型有效地融合了CNN和Transformer的优点,同时实现了细节特征和全局上下文信息的充分提取,可以实现手术器械准确、稳定分割。  相似文献   

12.
李晓慧  汪西莉 《图学学报》2020,41(6):905-916
摘 要:随着遥感卫星技术的发展,高分辨率遥感影像不断涌现。从含有较多信息、背景 复杂的遥感影像中自动提取目标成为一个亟待解决的难题。传统的图像分割方法主要依赖图像 光谱、纹理等底层特征,容易受到图像中遮挡和阴影等的干扰。为此,针对特定的目标类型, 提出结合目标局部和全局特征的 CV (Chan Vest)遥感图像目标分割模型,首先,采用深度学习 生成模型——卷积受限玻尔兹曼机建模表征目标全局形状特征,以及重建目标形状;其次,利 用 Canny 算子提取目标边缘信息,经过符号距离变换得到综合了局部边缘和全局形状信息的约 束项;最终,以 CV 模型为图像目标分割模型,增加新的约束项得到结合目标局部和全局特征 的 CV 遥感图像分割模型。在遥感小数据集 Levir-oil drum、Levir-ship 和 Levir-airplane 上的实 验结果表明:该模型不仅可以克服 CV 模型对噪声敏感的缺点,且在训练数据有限、目标尺寸 较小、遮挡及背景复杂的情况下依然能完整、精确地分割出目标。  相似文献   

13.
宋阳  刘哲 《计算机应用研究》2021,38(8):2490-2494
由于腹部图像中肝脏区域的复杂性和传统分割方法特征提取上的局限性等原因,肝脏分割领域仍存在着很多挑战.针对现有分割网络在肝脏区域的全局信息和局部信息处理上存在的不足,设计了一种融合更多局部特征的循环密集连接网络的分割方法.该方法将循环密集连接模块和局部特征补充模块整合为编码过程的学习单元,使编码单元融合深层次全局信息和更多尺度的局部特征信息.最后,在解码过程后,利用softmax函数输出分割结果.在LiTS数据集上该方法在多个评价指标中表现优异,精确度达到了95.1%.此外,在Data_67数据集上的相关实验也证明了该方法具有很好的泛化性能.实验表明,密集连接融合更多的局部信息,能够使肝脏分割模型的性能更加优异.  相似文献   

14.
目的 多目标跟踪与分割是计算机视觉领域一个重要的研究方向。现有方法多是借鉴多目标跟踪领域先检测然后进行跟踪与分割的思路,这类方法对重要特征信息的关注不足,难以处理目标遮挡等问题。为了解决上述问题,本文提出一种基于时空特征融合的多目标跟踪与分割模型,利用空间三坐标注意力模块和时间压缩自注意力模块选择出显著特征,以此达到优异的多目标跟踪与分割性能。方法 本文网络由2D编码器和3D解码器构成,首先将多幅连续帧图像输入到2D编码层,提取出不同分辨率的图像特征,然后从低分辨率的特征开始通过空间三坐标注意力模块得到重要的空间特征,通过时间压缩自注意力模块获得含有关键帧信息的时间特征,再将两者与原始特征融合,然后与较高分辨率的特征共同输入3D卷积层,反复聚合不同层次的特征,以此得到融合多次的既有关键时间信息又有重要空间信息的特征,最后得到跟踪和分割结果。结果 实验在YouTube-VIS(YouTube video instance segmentation)和KITTI MOTS(multi-object tracking and segmentation)两个数据集上进行定量评估。在YouTub...  相似文献   

15.
为提高室内场景的点云语义分割精度,设计了一个全融合点云语义分割网络。网络由特征编码模块、渐进式特征解码模块、多尺度特征解码模块、特征融合模块和语义分割头部组成。特征编码模块采用逆密度加权卷积作为特征编码器对点云数据进行逐级特征编码,提取点云数据的多尺度特征;然后通过渐进式特征解码器对高层语义特征进行逐层解码,得到点云的渐进式解码特征。同时,多尺度特征解码器对提取的点云多尺度特征分别进行特征解码,得到点云多尺度解码特征。最后将渐进式解码特征与多尺度解码特征融合,输入语义分割头部实现点云的语义分割。全融合网络增强了网络特征提取能力的鲁棒性,实验结果也验证了该网络的有效性。  相似文献   

16.
目的 针对基于区域的语义分割方法在进行语义分割时容易缺失细节信息,造成图像语义分割结果粗糙、准确度低的问题,提出结合上下文特征与卷积神经网络(CNN)多层特征融合的语义分割方法。方法 首先,采用选择搜索方法从图像中生成不同尺度的候选区域,得到区域特征掩膜;其次,采用卷积神经网络提取每个区域的特征,并行融合高层特征与低层特征。由于不同层提取的特征图大小不同,采用RefineNet模型将不同分辨率的特征图进行融合;最后将区域特征掩膜和融合后的特征图输入到自由形式感兴趣区域池化层,经过softmax分类层得到图像的像素级分类标签。结果 采用上下文特征与CNN多层特征融合作为算法的基本框架,得到了较好的性能,实验内容主要包括CNN多层特征融合、结合背景信息和融合特征以及dropout值对实验结果的影响分析,在Siftflow数据集上进行测试,像素准确率达到82.3%,平均准确率达到63.1%。与当前基于区域的端到端语义分割模型相比,像素准确率提高了10.6%,平均准确率提高了0.6%。结论 本文算法结合了区域的前景信息和上下文信息,充分利用了区域的语境信息,采用弃权原则降低网络的参数量,避免过拟合,同时利用RefineNet网络模型对CNN多层特征进行融合,有效地将图像的多层细节信息用于分割,增强了模型对于区域中小目标物体的判别能力,对于有遮挡和复杂背景的图像表现出较好的分割效果。  相似文献   

17.
目的 条纹状损伤是高度近视向病理性近视发展过程中的一种重要眼底改变。临床研究表明,在无创的眼底光学相干断层扫描(optical coherence tomography, OCT)图像中,条纹状损伤主要表现为视网膜色素上皮层—Bruch’s膜—脉络膜毛细血管复合体(retinal pigment epithelium-Bruch’s membrane-choriocapillario complex, RBCC)损伤,具体包括RBCC异常和近视牵引纹。由于OCT图像中条纹损伤存在目标小、边界模糊等问题,其自动分割极具挑战性。本文提出了一种基于特征聚合下采样和密集语义流监督的特征融合分割网络(deep-supervision and feature-aggregation based network, DSFA-Net),用于实现OCT图像中条纹损伤的自动分割。方法 为减少网络参数量,DSFA-Net以通道减半的U-Net为基准网络,在编码器路径中设计并嵌入特征聚合下采样模块(feature aggregation pooling module, FAPM),使得网络在下采样过程中保留更...  相似文献   

18.
杨坚伟  严群  姚剑敏  林志贤 《计算机应用》2005,40(12):3644-3650
针对现有的人像分割算法大多忽略移动设备的硬件限制,盲目追求效果,以致无法满足移动端对于分割速度要求的问题,提出了一种可在移动设备上高效运行的人像分割网络。首先,基于编码器-解码器的轻量级U型架构来构建网络;其次,为了克服全卷积网络(FCN)受制于较小的感受域,无法充分捕获长距离信息的缺陷,引入期望最大化注意力块(EMAU)置于编码器之后、解码器之前;然后,在训练阶段添加多层边界辅助损失,有助于提高人物边界轮廓的准确度;最后,对模型进行量化和压缩。在Veer数据集上将所提网络与PortraitFCN+、ENet和BiSeNet等网络进行对比实验。实验结果表明,所提网络可以提高图像推理速度和分割效果,并能够以95.57%的准确率处理分辨率为224×224的RGB图像。  相似文献   

19.
目的 从大量数据中学习时空目标模型对于半监督视频目标分割任务至关重要,现有方法主要依赖第1帧的参考掩膜(通过光流或先前的掩膜进行辅助)估计目标分割掩膜。但由于这些模型在对空间和时域建模方面的局限性,在快速的外观变化或遮挡下很容易失效。因此,提出一种时空部件图卷积网络模型生成鲁棒的时空目标特征。方法 首先,使用孪生编码模型,该模型包括两个分支:一个分支输入历史帧和掩膜捕获序列的动态特征,另一个分支输入当前帧图像和前一帧的分割掩膜。其次,构建时空部件图,使用图卷积网络学习时空特征,增强目标的外观和运动模型,并引入通道注意模块,将鲁棒的时空目标模型输出到解码模块。最后,结合相邻阶段的多尺度图像特征,从时空信息中分割出目标。结果 在DAVIS(densely annotated video segmentation)-2016和DAVIS-2017两个数据集上与最新的12种方法进行比较,在DAVIS-2016数据集上获得了良好性能,Jacccard相似度平均值(Jaccard similarity-mean,J-M)和F度量平均值(F measure-mean,F-M)得分达到了85.3%,比性能最高的对比方法提高了1.7%;在DAVIS-2017数据集上,J-MF-M得分达到了68.6%,比性能最高的对比方法提高了1.2%。同时,在DAVIS-2016数据集上,进行了网络输入与后处理的对比实验,结果证明本文方法改善了多帧时空特征的效果。结论 本文方法不需要在线微调和后处理,时空部件图模型可缓解因目标外观变化导致的视觉目标漂移问题,同时平滑精细模块增加了目标边缘细节信息,提高了视频目标分割的性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号