首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 828 毫秒
1.
脊柱磁共振(magnetic resonance,MR)图像精确分割是脊柱配准、三维重建等技术的前提。传统脊柱MR图像分割方法过程繁琐,精度低。为克服传统方法弊端,提出了一种基于深度学习的脊柱MR图像自动分割方法。该方法构建对称通道卷积神经网络提取多尺度图像特征,通过残差连接解决训练中网络退化问题,同时用跳跃连接层连接中间层特征减少信息丢失。在搭建的网络模型中加入卷积块注意力机制关注空间和通道中的有效特征。实验结果表明,该模型在测试集上的平均DSC系数为0.861?9,相比FCN、U-Net、DeeplabV3+和UNet++网络模型分别提高了15.34%、7.08%、5.79%、3.1%。该模型可应用于临床实践中提升脊柱MR图像的分割精度。  相似文献   

2.
本文针对医学脊柱CT图像因骨密度不均匀、骨骼结构复杂或图像成像分辨率低等因素造成的分割精度较低的问题,提出一种基于卷积-反卷积神经网络的CT图像脊柱分割方法.通过引入多尺度残差模块及注意力机制改进U-Net网络,训练特征模型并进行测试.在真实数据集上的实验结果表明,该方法能有效提高CT图像中脊柱的分割精度及分割效率,Dice系数评估值为0.97,IOU系数评估值为0.94.  相似文献   

3.
改进U-Net的高分辨率遥感图像轻量化分割   总被引:1,自引:0,他引:1  
胡伟  文武  魏敏 《计算机系统应用》2022,31(12):135-146
针对传统图像分割方法分割效率低下, 遥感图像特征复杂多样, 复杂场景下分割性能受到限制等问题, 在基于U-Net网络架构的基础上, 提出一种能够较好提取遥感图像特征并兼顾效率的改进U-Net模型. 首先, 以EfficientNetV2作为U-Net的编码网络, 增强特征提取能力, 提高训练和推理效率, 然后在解码部分使用卷积结构重参数化方法并结合通道注意力机制, 几乎不增加推理时间的前提下提升网络性能, 最后结合多尺度卷积融合模块, 提高网络对不同尺度目标的特征提取能力和更好地结合上下文信息. 实验表明, 改进的网络在遥感图像分割性能提升的同时分割效率也提高.  相似文献   

4.
甲状腺超声图像广泛应用于甲状腺相关疾病的诊断。针对甲状腺超声图像对比度低、边缘模糊以及散斑噪声严重等问题,提出一种基于多阶U-Net的深度卷积网络模型,用于实现甲状腺腺体与甲状腺结节的自动分割。该模型以U-Net为基本网络框架,通过不断进阶的特征融合,以实现图像边缘的信息提取。同时,在模型中使用了一种多尺度残差卷积模块以进一步提升分割精度。对比实验结果表明,该模型相较于其他方法能够获得更好的分割结果,具有一定的临床应用价值。  相似文献   

5.
针对当前农作物病害分割与识别模型病斑分割精度低、数据集不充分、训练速度过慢等问题,构建了一种基于改进的U-Net网络多尺度番茄叶部病害分割算法。在U-Net网络结构基础上进行改进,减小图像输入尺寸,在编码器中使用非对称Inception多通道卷积替换传统卷积,实现多尺度提取病害特征,提升模型准确度;在解码器中加入注意力模块,关注番茄病害边缘,减小上采样噪声;引入GN加速模型收敛,并将改进U-Net网络用在PlantVillage数据集上进行预训练,提高模型的分割准确度和速度。改进后的方法准确率、召回率和MIoU分别为92.9%、91.1%、93.6%,实验结果表明,该方法能够有效地提高模型对番茄的病害分割性能。  相似文献   

6.
为了进一步提升红外和可见光图像的融合效果,提出了一种基于多尺度卷积算子和密集连接网络的图像融合模型.该模型首先使用多尺度卷积算子计算图像的直接多尺度特征,然后使用密集连接网络计算图像的间接多尺度特征.为了得到图像像素信息在不同尺度下的融合权重,通过叠加的方式将各个尺度密集连接网络的输出进行融合,并使用活动图方法计算两类图像的融合权重,最后根据权重计算结果得到融合图像,实验在THO数据集和CMA数据集获得较好的识别率.  相似文献   

7.
针对乳腺超声图像边缘模糊、斑点噪声多、对比度低等问题,提出了一种融合多特征的边缘引导多尺度选择性核U-Net(Edge-guided Multi-scale Selective Kernel U-Net, EMSK U-Net)方法。EMSK U-Net采用基于U-Net的对称编解码结构可以适应小数据集医学图像分割的特点,将扩张卷积与传统卷积构成选择性核模块作用于编码路径,并提取下采样过程中的选择性核特征进行边缘检测任务,在丰富图像空间信息的同时细化边缘信息,有效缓解斑点噪声和边缘模糊的问题,在一定程度上可以提升小目标的检测精度。然后在解码路径通过多尺度特征加权聚合获取丰富的深层语义信息,多种信息之间相互补充,从而提升网络的分割性能。在3个公开的乳腺超声图像数据集上的实验结果表明,与其他分割方法相比,EMSK U-Net算法各项指标表现良好,分割性能有显著提升。  相似文献   

8.
在医学影像分割领域,U-Net网络是目前最成功和最受关注的方法之一,但是U-Net本质上是一种经过改造的全卷积神经网络模型,要获得更为全面和准确的局部-整体关系,不但需要增加网络层次从而加大计算量,而且效果也并不明显。胶囊网络提供了一种有效的建模图像的局部与整体关系的方法,可以用更少的参数取得好的性能。但原始的胶囊网络并没有充分考虑图像局部特征的粒度问题,将其应用在医学图像分割领域还需进一步改造。因此,提出一种将U-Net和胶囊网络相结合的医学图像分割模型ConvUCaps。该模型对U-Net的编码器部分进行改进,使用卷积模块学习不同尺度的局部特征,然后通过胶囊模块学习高层特征,并建模局部与整体之间的关系。实验结果表明,相比U-Net、UNet++、SegCaps、Matwo-CapsNet网络,ConvUCaps提高了分割精度和收敛速度,同时,与单纯基于胶囊网络的分割模型相比,显著减少了推理时间。  相似文献   

9.
为了解决在街道场景图像语义分割任务中传统U-Net网络在多尺度类别下目标分割的准确率较低和图像上下文特征的关联性较差等问题,提出一种改进U-Net的语义分割网络AS-UNet,实现对街道场景图像的精确分割.首先,在U-Net网络中融入空间通道挤压激励(spatial and channel squeeze&excitation block, scSE)注意力机制模块,在通道和空间两个维度来引导卷积神经网络关注与分割任务相关的语义类别,以提取更多有效的语义信息;其次,为了获取图像的全局上下文信息,聚合多尺度特征图来进行特征增强,将空洞空间金字塔池化(atrous spatial pyramid pooling, ASPP)多尺度特征融合模块嵌入到U-Net网络中;最后,通过组合使用交叉熵损失函数和Dice损失函数来解决街道场景目标类别不平衡的问题,进一步提升分割的准确性.实验结果表明,在街道场景Cityscapes数据集和Cam Vid数据集上AS-UNet网络模型的平均交并比(mean intersection over union, MIo U)相较于传统U-Net网络分别提...  相似文献   

10.
针对脊椎CT、MR图像分割模型分割性能不高的问题,基于U型网络提出了脊椎分割网络MAU-Net。首先引入坐标注意力模块,使网络准确捕获到空间位置信息,并嵌入到通道注意力中;然后提出基于Transformer的双支路通道交叉融合模块代替跳跃连接,进行多尺度特征融合;最后提出特征融合注意力模块,更好地融合Transformer与卷积解码器的语义差异。在脊柱侧凸CT数据集上,Dice达到0.929 6,IoU达到0.859 7。在公开MR数据集SpineSagT2Wdataset3上,与FCN相比,Dice提高14.46%。实验结果表明,MAU-Net能够有效减少椎骨误分割区域。  相似文献   

11.
为实现轮毂缺陷检测自动化,该文依据轮毂X射线图像,提出一种基于U-Net卷积神经网络的自动分割的改进方法。将原始U-Net模型的最大池化操作替换为卷积操作,并加入Dropout层对网络进行优化,提升模型可靠性。同时对带有缺陷的轮毂图像做数据预处理,用于训练改进的U-Net模型。结果表明,该网络在复杂轮毂X射线图像的缺陷识别中表现良好,DICE系数为0.8554,SSIM系数为0.9655,识别速度达到3 ms/张;该方法能较好地实现轮毂射线图像缺陷的自动分割,满足无损检测的自动化需要。  相似文献   

12.
目的 脑肿瘤核磁共振(magnetic resonance,MR)图像分割对评估病情和治疗患者具有重要意义。虽然深度卷积网络在医学图像分割中取得了良好表现,但由于脑胶质瘤的恶性程度与外观表现有巨大差异,脑肿瘤MR图像分割仍是一项巨大挑战。图像语义分割的精度取决于图像特征的提取和处理效果。传统的U-Net网络以一种低效的拼接方式集成高层次特征和低层次特征,从而导致图像有效信息丢失,此外还存在未能充分利用上下文信息和空间信息的问题。对此,本文提出一种基于注意力机制和多视角融合U-Net算法,实现脑肿瘤MR图像的分割。方法 在U-Net的解码和编码模块之间用多尺度特征融合模块代替传统的卷积层,进行多尺度特征映射的提取与融合;在解码模块的级联结构中添加注意力机制,增加有效信息的权重,避免信息冗余;通过融合多个视角训练的模型引入3维图像的空间信息。结果 提出的模型在BraTS18(Multimodal Brain Tumor Segmentation Challenge 2018)提供的脑肿瘤MR图像数据集上进行验证,在肿瘤整体区域、肿瘤核心区域和肿瘤增强区域的Dice score分别为0.907、0.838和0.819,与其他方法进行对比,较次优方法分别提升了0.9%、1.3%和0.6%。结论 本文方法改进了传统U-Net网络提取和利用图像语义特征不足的问题,并引入了3维MR图像的空间信息,使得肿瘤分割结果更加准确,具有良好的研究和应用价值。  相似文献   

13.
王雪  李占山  陈海鹏 《软件学报》2022,33(9):3165-3179
基于U-Net的编码-解码网络及其变体网络在医学图像语义分割任务中取得了卓越的分割性能.然而,网络在特征提取过程中丢失了部分空间细节信息,影响了分割精度.另一方面,在多模态的医学图像语义分割任务中,这些模型的泛化能力和鲁棒性不理想.针对以上问题,本文提出一种显著性引导及不确定性监督的深度卷积编解码网络,以解决多模态医学图像语义分割问题.该算法将初始生成的显著图和不确定概率图作为监督信息来优化语义分割网络的参数.首先,通过显著性检测网络生成显著图,初步定位图像中的目标区域;然后,根据显著图计算不确定分类的像素点集合,生成不确定概率图;最后,将显著图和不确定概率图与原图像一同送入多尺度特征融合网络,引导网络关注目标区域特征的学习,同时增强网络对不确定分类区域和复杂边界的表征能力,以提升网络的分割性能.实验结果表明,本文算法能够捕获更多的语义信息,在多模态医学图像语义分割任务中优于其他的语义分割算法,并具有较好的泛化能力和鲁棒性.  相似文献   

14.
不透水面作为监测城市生态环境的重要指标,其信息提取具有重要意义。由于城市地表的复杂性及细化的城市管理需要,急需提取高精度的城市不透水面。但是基于传统方法提取高精度的城市不透水面面临巨大困难。而深度学习方法因其自动化提取影像特征的特点逐渐成为遥感影像地物提取的新兴方法。基于此,采用多尺度特征融合的U-Net深度学习方法以提升语义分割精度,开展高分辨率遥感影像不透水面的精确提取研究。模型引入残差模块代替普通卷积以加深网络,提取更多影像特征;加入金字塔池化模块增强网络对复杂场景的解析能力;利用跳跃连接方式融合不同尺度特征,有利于恢复空间信息。以广州市航摄正射影像为数据源,通过卷积神经网络将遥感影像分割为背景、其他、植被、道路和房屋5种地物类型,将其与人工目视解译的地面真值进行验证,最终提取研究区域不透水面。实验证明:多尺度特征融合的U-Net模型总体精度和Kappa系数分别为87.596% 和0.82。在定性与定量两个方面均优于传统的监督分类法、面向对象分类法和经典U-Net模型法。结果表明:该模型利用多维度影像特征信息,有效提升了复杂场景图像的分割精度,分割效果好,适用于高分辨率遥感影像不透水面提取,该研究成果可为城市环境监测提供数据支撑。  相似文献   

15.
放射肿瘤学领域中,头颈部被认为是轮廓绘制最困难且最耗时的疾病部位之一。目前,在临床中头颈部轮廓绘制通常由人工完成,耗时且费力,因此,开发一种自动的医学图像分割方法十分必要,可在节省人力和时间的同时,避免由于不同医师的主观因素导致的诊断结果差异。该文使用正电子发射断层成像/计算机断层扫描双模态的数据对头颈部的肿瘤进行分割,利用不同模态之间的信息互补,实现了更加精确的分割。整个网络基于传统 U-Net 架构,在编码器中增加 Inception 模块,在解码器中增加 Dense 模块以及空间注意力来对网络进行改进。在头颈部肿瘤数据集上,将该模型与不同的 U-Net 架构进行对比,结果表明,该文提出的方法多个指标均较优。该网络的 Dice 相似度系数为 0.782,召回率为 0.846,Jaccard 系数为 0.675,较原始 U-Net 分别提升 6.8%、13.4% 和 9.8%;95% 豪斯多夫距离为 5.661,较原始 U-Net 下降了 1.616。对比实验结果表明,该文提出的 Inception Spatial-Attention Dense U-Net 分割模型在头颈部肿瘤数据集上有效改善了分割结果,较标准的 U-Net 具有更高的性能,提高了分割的准确率。  相似文献   

16.
针对肝脏分割中存在误分割及小目标漏分割的问题,文中提出基于U-Net的特征交互分割方法,采用ResNet34作为主干网络.为了实现不同尺度间的非局部交互,设计基于转换器机制的特征交互金字塔模块作为网络的桥接器,获得具有丰富上下文信息的特征图.设计多尺度注意力机制替代U-Net中的跳跃连接,关注图像中的小目标,充分获取目标层的上下文信息.在公开数据集LiTS及3Dircadb和CHAOS组成的数据集上的实验证实文中方法能取得较好的分割效果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号