首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 625 毫秒
1.
针对传统以及基于深度学习的脑肿瘤MR图像分割方法存在精度低、特征信息丢失等问题,提出一种多尺度特征融合全卷积神经网络的脑肿瘤MR图像分割算法.该算法首先对脑肿瘤MR图像的4种模态进行归一化处理;将得到的结果通过多尺度特征融合全卷积神经网络(MFF-FCN).该网络是在全卷积神经网络的基础上,引入5×5、7×7大小的卷积核作为其它2种通路,以提高模型的特征信息提取能力.实验结果表明,MFF-FCN网络模型在特征提取和分割精度上都有较好的表现,尤其是在全肿瘤和边缘分割上,Dice、Sensitivity、PPV等指标都有明显的提升;且单幅脑肿瘤MR图像的分割时间平均用时不到1s,实用性较强.  相似文献   

2.
肝脏肿瘤计算机断层扫描(Computed Tomography,CT)图像分割是肝癌诊断与治疗过程的重要环节。近年来,基于U型结构的卷积神经网络在该分割任务取得了巨大的成功,但仍存在一些挑战,如肿瘤边界分割不精确、小肿瘤难以检测等。为提高肝脏肿瘤的分割精度,提出一种级联网络MCPUNet用于肝脏肿瘤分割任务。MCPUNet引入MDB(MDconv Block)和MP(Mixing Pooling)以获取上下文信息,MDB通过混合深度可分离卷积和坐标注意力机制提取图像的多尺度特征,MP用于下采样减少图像尺寸。实验证明,与原始的U-Net模型相比,该模型在肝脏肿瘤分割任务上的交并比(Intersection over Union,IoU)、准确度和召回率指标分别提高3.8%、2.5%和2.0%,为肝癌诊断和治疗提供了可靠依据。  相似文献   

3.
为了更加准确地根据医学图像进行医学类疾病诊断,可采用U型结构的全卷积神经网络模型对医学图像进行分割,并且可在分割的过程中,引入空间注意力机制和通道注意力机制,分别从空间维度和通道维度提取输入特征图的重要信息和抑制非重要信息。根据该思想,设计了一种基于通道和空间注意力机制的U型Transformer模型(SC U-Transformer)。SC U-Transformer包含编码和解码过程,编码过程使用Swin-Transformer作为编码器,提取上下文特征并实现下采样;解码过程使用包含扩展图像块的对称Swin-Transformer模型,并添加空间注意力模块和通道注意力模块,分别使模型更加关注前景和相关联的特征通道。根据ACDC数据集的实验结果表明,SC U-Transformer能有效提高医学图像分割的准确率。  相似文献   

4.
邢波涛  李锵  关欣 《信号处理》2018,34(8):911-922
针对现有机器学习算法分割脑肿瘤图像精度不高的问题,提出一种基于改进的全卷积神经网络的脑肿瘤图像分割算法。算法首先将FLAIR、T2和T1C三种模态的MR脑肿瘤图像进行灰度归一化,随后利用灰度图像融合技术得到肿瘤信息更加全面的预处理图像;然后采用融合三次脑肿瘤特征信息的改进全卷积神经网络对预处理图像进行粗分割,并且在每个卷积层后加入批量正则化层以加快网络训练的收敛速度,提高训练模型精度;最后融合全连接条件随机场细化粗分割结果中的脑肿瘤边界。实验结果表明,相较于传统的卷积神经网络脑肿瘤图像分割算法,本算法在分割精度和稳定性上有了较大提升,平均Dice可达91.29%,实时性较好,利用训练模型平均1s内可完成单张脑肿瘤图像的分割。   相似文献   

5.
受环境干扰以及反射光影响,室外采集的多线激光光条图像含有光斑和断裂缺陷.为了准确地分割图像缺陷,本文提出了一个轻量的UT(U-shape Target,U代表U型编解码网络结构,T代表靶形视野)分割模型,模型由3×3卷积和靶形卷积堆叠而成.靶形卷积是针对激光光条图像特点提出的多视野卷积模块,模块中四个卷积分支构成靶形卷积视野,能够提取激光光条图像几何结构特征、局部细节特征以及环绕纹理特征.实验表明,UT模型在多线激光光条图像上的缺陷分割精度高于主流分割模型,而且实现了分割精度和参数量的平衡.  相似文献   

6.
针对不同模态MR脑肿瘤图像呈现的肿瘤状态差异以及卷积神经网络(convolutional neural networks, CNNs)提取特征局限性的问题,提出了一种基于多模态融合的MR脑肿瘤图像分割方法。分割模型以U-net网络为原型,创新一种多模态图像融合方式以加强特征提取能力,同时引入通道交叉注意力机制(channel cross transformer, CCT)代替U-net中的跳跃连接结构,进一步弥补深浅层次的特征差距与空间依赖性,有效融合多尺度特征,加强对肿瘤的分割能力。实验在BraTS数据集上进行了多目标分割结果验证,通过定量分析对比前沿网络分割结果,表明该方法确有良好的分割性能,其分割出三种肿瘤区域的Dice系数分别达到80%、74%、71%。  相似文献   

7.
针对CT图像中肺结节因边缘模糊、特征不明显造成的分类效果有偏差的问题,本文提出一种嵌入注意力机制的多模型融合方法(简称MSMA-Net).该方法先将原始CT图像进行肺实质分割和裁剪操作后得到两种不同尺寸的图像,然后分别输入到空间注意力模型和通道注意力模型进行训练,其中,空间注意力模型着重于提取肺结节在CT图像中的空间位...  相似文献   

8.
医学图像自动分割技术具有辅助临床医学诊断的功能.为改善CNN模型在医学图像分割中存在感受野小及细节特征不敏感等问题,基于多尺度策略以及注意力机制,提出一种多尺度综合注意力的U形网络架构,以提升医学图像分割质量.首先,提出一个新的双路径因式分解多尺度融合块,以扩展图像特征的感受野,进一步提取图像特征的细节信息.其次,在架构中融入通道和空间融合自注意力块,利用注意力机制的特性,抑制不相关的部分或背景以突显深层特征的空间信息.最后,引入多尺度注意力块.该模块通过融合多个尺度的特征信息,以突出不同尺度中最显著的特征图来适应当前分割对象的大小.为验证模型的可靠性,将所提出的网络模型应用于肺部、细胞轮廓及肝脏等医学图像分割任务.实验结果表明,所提方法在准确率、Dice系数、AUC及灵敏度等评估指标上均优于目前用于医学图像分割的主流方法.  相似文献   

9.
本文针对高分辨率遥感图像的特点,设计了一种端到端的语义分割网络结构模型,高分辨率遥感图像可得到两种图像数据,采用resnet网络对两种图像的特征分别进行提取,并在不同的特征层上进行数据融合,在网络结构的设计中引入了空间位置注意力模块和通道注意力模块,并对底层特征使用不同扩张率的空洞卷积神经网络进行多尺度融合,得到一种新的高分辨率遥感图像语义分割模型,通过对最终的预测性能分析,相比FCN、Unet、Segnet、DeeplabV3+等流行的语义分割模型,该模型在高分辨率遥感图像的预测中具有一定的优势。  相似文献   

10.
针对新一代多普勒气象雷达的散射回波图像受非降雨等噪声回波干扰导致精细化短时气象预报准确度降低的问题,该文提出一种基于深度卷积神经网络(DCNN)的气象雷达噪声图像语义分割方法。首先,设计一种深度卷积神经网络模型(DCNNM),利用MJDATA数据集的训练集数据进行训练,通过前向传播过程提取特征,将图像高维全局语义信息与局部特征细节融合;然后,利用训练误差值反向传播迭代更新网络参数,实现模型的收敛效果最优化;最后,通过该模型对气象雷达图像数据进行分割处理。实验结果表明,该文方法对气象雷达图像的去噪效果较好,与光流法、全卷积网络(FCN)等方法相比,该文方法对气象雷达图像中真实回波和噪声回波的识别准确率高,图像的像素精度较高。  相似文献   

11.
针对传统方法下的汽车轮毂内部缺陷检测效率低、精度达不到工业标准的问题,本文提出了一种基于改进U-Net神经网络的轮毂X射线图像缺陷分割方法AW-Net。该方法通过三级跳跃连接的方式级联两个U型网络对图像特征进行深度提取。同时在跳跃连接的过程中融合注意力机制以解决小目标的变化情况容易被漏检的问题,并通过实验验证结合使用多种激活函数来实现更精准的轮毂X射线图像语义分割,增加网络的拟合能力,提高网络的鲁棒性。实验结果表明:改进后的算法在本文构建数据集的汽车轮毂内部缺陷的误判率为2.73%,漏判率为0,识别率达到93%以上,其分割精度高于传统图像分割网络全卷积网络(fully convolutional network, FCN)和U-Net,且本方法边缘分割更加平坦,满足现代轮毂内部缺陷无损检测的需要。  相似文献   

12.
熊炜  周蕾  乐玲  张开  李利荣  武明虎 《光电子.激光》2021,32(11):1164-1170
针对磁共振成像(magnetic resonance imaging, MRI)脑部肿瘤区域误识别及肿瘤形状 差异较大的问题,提出一种基于多尺度特征提取的 MRI 脑肿瘤图像分割方法。分割模型以 U-Net 为骨干网络,使用密集金字塔卷积(dense pyramidal convolution, DPC)提取多尺度特征, 以适应不同尺寸肿瘤的分割,同时引入条状池化(strip pooling, SP),凭借其能捕获肿瘤中远 距离区域的依赖关系,进一步加强对肿瘤图像的分割能力。提出的方法在 Kaggle_3m 数据 集上进行了实验验证,实验结果表明该方法具有良好的脑部肿瘤分割性能, 其中Dice相似 系数、杰卡德系数分别达到了91.66%,84.38% 。  相似文献   

13.
跨模态的医学图像可以在同一病灶处提供更多的语义信息,针对U-Net网络主要使用单模态图像用于分割,未充分考虑跨模态、上下文语义相关性的问题,该文提出面向跨模态和上下文语义的医学图像分割C2 Transformer U-Net模型。该模型的主要思想是:首先,在编码器部分提出主干、辅助U-Net网络结构,来提取不同模态的语义信息;然后,设计了多模态上下文语义感知处理器(MCAP),有效地提取同一病灶跨模态的语义信息,跳跃连接中使用主网络的两种模态图像相加后传入Transformer解码器,增强模型对病灶的表达能力;其次,在编-解码器中采用预激活残差单元和Transformer架构,一方面提取病灶的上下文特征信息,另一方面使网络在充分利用低层和高层特征时更加关注病灶的位置信息;最后,使用临床多模态肺部医学图像数据集验证算法的有效性,对比实验结果表明所提模型对于肺部病灶分割的Acc, Pre, Recall, Dice, Voe与Rvd分别为:97.95%, 94.94%, 94.31%, 96.98%, 92.57%与93.35%。对于形状复杂肺部病灶的分割,具有较高的精度和相对较低的冗余度,总体上优于现有的先进方法。  相似文献   

14.
肺癌计算机断层扫描(computed tomography, CT)中对病灶的分割目前存在两个问题:一是病变区域的大小和形状差异大,二是标注数据量少。为了应对上述问题,提出一种用于肺癌分割的双注意力半监督学习网络(dual attention semi-supervised learning network, SDA-Net)。首先,在U-Net的编码阶段加入残差-密集块(residual-dense block, RDB)进行特征提取,尽可能多地保留浅层特征。其次,在编码阶段末端利用包含位置注意力和通道注意力的双注意力机制整合同一类别特征的语义相关性,增强目标的特征表达。最后,针对标注数据量少的问题,采用双路一致性半监督学习(semi-supervised learning, SSL)的方法,使得双注意力网络同时利用标注数据和未标注数据进行训练,大幅提高了网络分割的性能。测试结果表明,所提方法的Dice相似系数、杰卡德系数、灵敏度和精确度分别达到了0.843 2、0.733 1、0.809 2和0.886 1,优于当前典型的分割算法。  相似文献   

15.
魏欣  李锵  关欣 《光电子.激光》2022,(12):1338-1344
针对现有脑肿瘤核磁共振成像(magnetic resonance imaging, MRI)分割神经网络的参数量和计算量较大且对肿瘤区域小目标分割精度不高的问题,提出一种改进的轻量级脑肿瘤分割网络MF-RES2Net(multiple fiber residual-like networks)。该网络以3D U-Net为基础架构,将多纤模块(multi-fiber, MF)和类残差模块(RES2)相结合代替传统卷积模块。MF将特征图像的通道进行混合,增加了通道间信息的交流融合;RES2将通道均分,单通道的卷积结果相加到相邻通道,在扩大图像感受野的同时保留了细节特征,同时降低网络参数量。此外,为改善数据不平衡问题,提出一种改进的加权损失函数,提高了网络对小目标的分割精度。将MF-RES2Net在BRATS 2019数据集进行验证,完整肿瘤、核心肿瘤和增强肿瘤分割的平均Dice系数分别为89.98%、84.02%、77.62%,参数量和浮点数分别为3.16 M和16.24 G,结果表明:该网络在降低参数量和计算量的同时进一步提升了分割性能,有效地降低了网络运行时的设备要求。  相似文献   

16.
结肠镜图像中息肉的精确分割是诊断结肠癌的关键环节,针对目前结肠息肉分割算法存在孔洞、分割粗糙以及分割不完全的问题,提出了一种改进级联U-Net结构的结肠息肉分割算法。运用特征融合思想,设计了多尺度语义嵌入模块和残差模块,充分利用深、浅层特征的语义信息。引入注意力机制,在模型的级联处构建了改进空洞卷积模块,扩大卷积感受野并增强特征捕获能力。改进了卷积层模块和分割损失函数,提升模型的泛化性和鲁棒性。在Kvasir-SEG数据集上进行实验分析,相似系数、平均交并比、召回率和准确率分别达到了90.39%、88.34%、83.62%和95.12%。实验结果表明,该文所提算法改善了分割图像内部孔洞、边缘粗糙及分割不完全的问题,优于其他息肉分割算法。  相似文献   

17.
研究采用卫星遥感技术获取高分辨率遥感影像水体样本数据集,基于深度卷积神经网络从高分辨遥感影像中提取水体并进行黑臭水体智能监测,提出了一种改进U-Net的黑臭水体检测网络模型(IWDNet)。基于U-Net结构引入跳跃式多尺度特征融合,结合通道注意力机制、卷积注意力模块、通道与空间注意力机制生成不同多尺度特征融合注意力机制(MFFAM)模块进行对比,并引入空洞卷积扩大网络感受野,最终实现黑臭水体的识别检测。实验证明:基于跳跃式多尺度融合与CBAM注意力机制的黑臭水体检测网络(MFFCBAM-IWNet)模型有效提升了识别精度,在高分辨遥感影像水体样本数据集上表现最佳,总体精度达98.56%,Kappa系数达0.978 4。  相似文献   

18.
针对视网膜图像血管细小,细节特征丢失、梯度下降、爆炸而导致分割效果差的问题,本文提出了一种引入残差块、循环卷积模块和空间通道挤压激励模块的U-Net视网膜血管图像分割模型。首先通过使用一系列随机增强来扩展训练集并对数据集进行预处理,然后在U-Net模型中引入残差块,避免随着网络深度增加,分割准确率达到饱和然后迅速退化以及优化计算成本;并将U-Net网络的底部替换为循环卷积模块,提取图像低层次的特征,并不断的进行特征积累,增强上下文之间的语义信息,获得更有效的分割模型;最后在卷积层之间嵌入空间通道挤压激励模块,通过找到特征较好的通道,强调这一通道,压缩不相关的通道使得网络模型能够加强关键语义特征信息的学习,通过训练过程学习到有效的特征信息,同时增强抗干扰能力。通过在DRIVE数据集上的验证结果可得,本文所提模型的准确率为98.42%,灵敏度达到了82.36%,特异值达到了98.86%。通过和其他网络分割方法比较,本文所提分割方法具有更优的分割效果。  相似文献   

19.
Corona Virus Disease 2019 (COVID-19) has affected millions of people worldwide and caused more than 6.3 million deaths (World Health Organization, June 2022). Increased attempts have been made to develop deep learning methods to diagnose COVID-19 based on computed tomography (CT) lung images. It is a challenge to reproduce and obtain the CT lung data, because it is not publicly available. This paper introduces a new generalized framework to segment and classify CT images and determine whether a patient is tested positive or negative for COVID-19 based on lung CT images. In this work, many different strategies are explored for the classification task. ResNet50 and VGG16 models are applied to classify CT lung images into COVID-19 positive or negative. Also, VGG16 and ReNet50 combined with U-Net, which is one of the most used architectures in deep learning for image segmentation, are employed to segment CT lung images before the classifying process to increase system performance. Moreover, the image size dependent normalization technique (ISDNT) and Wiener filter are utilized as the preprocessing techniques to enhance images and noise suppression. Additionally, transfer learning and data augmentation techniques are performed to solve the problem of COVID-19 CT lung images deficiency, therefore the over-fitting of deep models can be avoided. The proposed frameworks, which comprised of end-to-end, VGG16, ResNet50, and U-Net with VGG16 or ResNet50, are applied on the dataset that is sourced from COVID-19 lung CT images in Kaggle. The classification results show that using the preprocessed CT lung images as the input for U-Net hybrid with ResNet50 achieves the best performance. The proposed classification model achieves the 98.98% accuracy (ACC), 98.87% area under the ROC curve (AUC), 98.89% sensitivity (Se), 97.99 % precision (Pr), 97.88% F1-score, and 1.8974-seconds computational time.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号