首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 285 毫秒
1.
毕秀丽  陆猛  肖斌  李伟生 《软件学报》2022,33(5):1947-1958
计算机断层成像(computed tomography, CT)中, 胰腺分割作为医学图像分析中最具挑战的任务之一, 由于其体积小、形状多变的特点, 导致传统的自动分割方法无法达到理想的分割精度. 利用高级语义特征指导低级特征的思想, 提出一种基于双解码U型卷积神经网络的单阶段胰腺分割模型. 模型由一个编码器和两个解码...  相似文献   

2.
针对传统的高分影像建筑物提取方法存在分割精度低和分割边界模糊等问题,提出基于U-net神经网络的高分辨率光学遥感影像建筑物提取方法。方法包含U-net神经网络和全连接CRFs网络,依据图像特征进行语义分割并优化分割结果;在实现U-net神经网络和全连接CRFs模型的基础上,根据U-net的特点以及本文数据特性调试出不同数据量的增强扭曲数据集进行测试,以达到最高鲁棒的分割效果;调试全连接CRFs模型,使得后处理结果更加贴近影像中的真实情况。实验结果表明,与利用传统分割方法的分割效果相比,该方法分割精度及地物边缘分割完整度都得到了显著提升,对高分辨率遥感影像中建筑物的实验分割精度达到了87.64%。  相似文献   

3.
基于影像自动提取建筑物轮廓是遥感领域在现代化城市建设中长期存在的问题。为了充分利用高分辨率遥感影像中建筑物的全局和局部信息以更精确地对建筑物进行分割和提取,提出了基于全卷积神经网络的针对边界约束的校正神经网络模型。该模型由共享后端和多任务预测模型组成,利用修改的U-net和多任务框架,根据共享后端的一致特征生成分割图预测和轮廓构建。模型通过对边界信息的限制和规定,提高性能。在建筑物数据库上的实验表明,边界校正网络模型在建筑物分割和轮廓提取的结果精度均在89%以上,优于传统的U-net模型结果。  相似文献   

4.
针对腹部CT影像邻近器官对比度较低及因个体肝脏形状差异较大等引起肝脏分割困难的问题,提出了全卷积神经网络肝脏分割模型。首先通过卷积神经网络提取图像深层、抽象的特征,再通过反卷积运算对提取到的特征映射进行插值重构后得到分割结果。由于单纯进行反卷积得到的分割结果往往比较粗糙,因此,在反卷积之前,先融合高层与低层的特征,并且通过增加反卷积的层数、减少反卷积步长,得到了更为精确的分割结果。与传统卷积神经网络的分割方法相比,该模型可以充分利用CT影像的空间信息。实验数据表明该模型能够使腹部CT影像肝脏分割具有较高的精度。  相似文献   

5.
针对复杂地形条件下道路特征选取不具代表性,分割精度低的问题,提出了一种基于卷积神经网络(PPMU-net)的高分辨率遥感道路提取的方法。将3通道的高分二号光谱信息与相应的地形信息(坡度、坡向、数字高程信息)进行多特征融合,合成6通道的遥感图像;对多特征的遥感图像进行切割并利用卷积网络(CNN)筛选出含道路的图像;将只含道路的遥感图像送进PPMU-net中训练,构建出高分辨率遥感图像道路提取模型。在与U-net神经网络、PSPnet神经网络相比时,所提的方法在对高分辨率遥感道路提取时能够达到较好的效果,提高了复杂地形条件下道路分割的精度。  相似文献   

6.
青光眼是当前世界范围内致盲的主要病因之一,其发病过程没有明显的特征。视杯盘比是青光眼诊断中最主要的评估指标之一,这使得视杯视盘的分割成为了目前青光眼诊断的关键。已有的视杯视盘分割方法大多基于手工提取的特征,低效且精度不高。提出一种名为MAR2U-net的深度神经网络架构用于青光眼视杯视盘的联合分割。它是基于Attention U-net的一种改进架构,通过在Attention U-net的基础之上引入递归残差卷积模块来提取更加深层次的特征,并结合多尺度的输入和多标签的Focal Tversky损失函数来提升模型的联合分割性能。实验结果表明,该方法在REFUGE数据集上的分割效果较已有方法取得了显著提升,为实现大规模的青光眼诊断筛查提供了基础。  相似文献   

7.
图像分割任务中,传统的基于人工设计特征方法工作量大、复杂度高、分割割精度较低,现有的基于全卷积神经网络(Fully Convolutional Networks,FCN)的方法在分割边缘上不够精细。为了提高图像分割算法的分割精度,提出基于多源融合的全卷积神级网络模型,输入图片经过Sobel算子提取边缘特征获得特征矩阵,与RGB和灰度图像一起作为输入,将传统全卷积网络拓展成具有多种输入源的分割模型。在PASCAL VOC 2012图像分割数据集上进行实验验证,结果显示该模型提高了图像分割的精度,具有良好的实时性和鲁棒性。  相似文献   

8.
针对传统的基于地物纹理和空间特征的方法很难精确识别地面新增建筑的问题,提出了一种基于生成对抗网络的新增建筑变化检测模型(CDGAN)。首先,使用Focal损失函数改进传统图像分割网络(U-net),并以此作为模型的生成器(G),用于生成遥感影像的分割结果;然后,设计了一个16层的卷积神经网络(VGG-net)作为鉴别器(D),用于区分生成的结果和人工标注(GT)的真实结果;最后,对生成器和判别器进行对抗训练,从而得到具有分割能力的生成器。实验结果表明,CDGAN模型的检测准确率达到92%,比传统U-net模型的平均区域重合度(IU)提升了3.7个百分点,有效地提升了遥感影像中地面新增建筑物的检测精度。  相似文献   

9.
针对目前卷积神经网络在图像语义分割上存在运算效率的不足,考虑实际嵌入式移动设备应用中对网络模型大小、运算速度和能耗的需求,研究和讨论了语义分割网络参数的压缩方法和网络结构的优化方式,并利用深度可分离卷积、多尺寸卷积核融合和金字塔池化的方法,提出快速、准确的小尺寸语义分割网络模型。该网络模型在Cityscapes数据集上进行训练和测试,在模型尺寸、运算时间和分割精度等方面都有良好的表现,能够同时兼顾语义分割任务中对效率和精度的要求,提高了语义分割技术在嵌入式移动设备上的实用性。  相似文献   

10.
研究了基于深度学习的遥感图像语义分割问题,将建筑物作为遥感图像中的待分割目标,采用语义分割算法将建筑物提取出来.提出了一种改进的U-net网络,根据分割实际需求,保持网络对目标提取特征能力的前提下,将原U-net网络的卷积核数量适当减少,降低了网络参数数量和计算复杂度;增加了Batch Normalization层抑制过拟合问题;在上采样部分增加特征图的局部信息以优化网络对于细节的分割效果.使用公开的数据集INRIA Aerial Image Dataset来评估改进的U-net网络的实际效果,和原U-net相比,单张图片训练速度提升了8%,分割精度也明显提升,训练中的过拟合情况得到改善.证明了本文改进的U-net网络具有对遥感图像的语义分割任务的有效性和可行性.  相似文献   

11.
为提升辅助维修技术在实际工程应用中的性能,解决嵌入式设备性能有限,难以实现实时物体识别任务这一问题,以提高轻量级卷积神经网络在嵌入式平台中的识别速度为目标,提出一种基于通道剪枝和量化的综合卷积神经网络压缩方法.以MobileNet V3模型进行实验,其结果表明,该卷积神经网络压缩方法有效压缩了网络结构,在识别精度损失可接受的情况下,实现了目标物体在嵌入式平台上的实时识别.  相似文献   

12.
潘沛克  王艳  罗勇  周激流 《计算机应用》2019,39(4):1183-1188
鼻咽肿瘤生长方向不确定,解剖结构复杂,当前主要依靠医生手动分割,该方法耗时久同时严重依赖于医生的经验。针对这一问题,基于深度学习理论,提出一种基于U-net模型的全自动鼻咽肿瘤MR图像分割算法,利用卷积操作替换原始U-net模型中的最大池化操作以减少特征信息的损失。首先,从所有患者的肿瘤切片中提取大小为128×128的区域作为数据样本;然后,将患者样本分为训练样本集和测试样本集,并对训练样本集进行数据扩充;最后,选择训练样本集中所有数据用于训练网络模型。为了验证所提模型的有效性,选取测试样本集中患者的所有肿瘤切片进行分割,最终平均分割精度可达到:DSC(Dice Similarity Coefficient)为80.05%,PM系数为85.7%,CR系数为71.26%,ASSD(Average Symmetric Surface Distance)指标为1.1568。与基于图像块的卷积神经网络(CNN)相比,所提算法DSC,PM(Prevent Match)、CR(Correspondence Ratio)系数分别提高了9.86个百分点、19.61个百分点、16.02个百分点,ASSD指标下降了0.4364;与全卷积神经网络(FCN)模型及基于最大池化的U-net网络相比,所提算法的DSC、CR系数均取得了最优结果,PM系数较两种对比模型中的最大值低2.55个百分点,ASSD指标较两种对比模型中的最小值略高出0.0046。实验结果表明,所提算法针对鼻咽肿瘤图像可以实现较好的自动化分割效果以辅助医生进行诊断。  相似文献   

13.
针对图像序列三维重建中多视角目标分割需要人工参与任务繁重的问题,提出一种基于卷积神经网络改进的图像自动分割方法。首先将序列图像去噪处理、归一化并进行语义标注后制作数据集,然后对改进的融合多尺度特征和残差连接的卷积神经网络进行训练,得到优化后的卷积神经网络分割模型,最后将预分割图像加载到优化的分割模型中得到归一化的掩码图,再利用三次样条插值法将其恢复分辨率后与原图做自定义的掩码操作得到高清分割结果。本文以主流分割软件PhotoShop分割结果为参考标准进行对比,实验结果证明,该方法的准确率与参考标准接近,而且可实现批量自动分割,较好的解决三维重建中目标分割任务繁重的问题。  相似文献   

14.
针对临床银屑病样本图像分割精度不高和分割结果出现的像素栅格化问题,提出了一种有效的U-net医学图像分割改进方法。该方法采用对比度受限的自适应直方图均衡化(CLAHE)算法对银屑病样本图像进行预处理,采用跳跃连接Inception-Res A模块代替经典U-net特征提取单元,并采用马尔可夫随机场后处理进一步提升分割精度。针对长征医院临床银屑病样本进行实验,实验结果表明改进的U-net模型的Dice系数和Jaccard系数分别为88.4%和79.5%。与传统U-net模型相比,该模型具有较高的分割精度和较好的泛化性能,同时减少了医学图像分割结果的栅格化问题。  相似文献   

15.
为了解决移动端视觉感知模块的内存资源和硬件条件不适应卷积神经网络的快速应用等问题。以经典的DeepLab V3模型为基础,在保证分割精度的前提下,以优化卷积神经网络模型的运行速度为目标,提出一种新的轻量化网络结构。所设计的网络结构将原有非线性激活函数替换成新的Swish激活函数进行精度补偿,采用改进后的轻量化MobileNet V2结构替代DeepLab V3原有的特征提取器。实验结果表明,改进的DeepLab V3网络模型和目前精度最高的DeepLab V3+算法相比,其在维持一定精度的前提下,参数量和计算复杂度大大减小,运行速度明显提升,模型内存占用率下降了近96%,综合性能更强,更适合对分割性能要求较高的快速分割网络。  相似文献   

16.
岩心聚焦离子束扫描电镜(FIB-SEM)图像存在灰度分布不均及孔隙内局部高亮等现象,采用传统图像分割算法所得孔隙分割精度较低,而基于轮廓的分割算法需对孔隙进行人工标记,操作繁琐且无法精确提取孔隙。提出一种利用卷积神经网络的端到端岩心FIB-SEM图像分割算法。结合光流法与分水岭分割图像标注法构建岩心FIB-SEM数据集,联合ResNet50残差网络、通道和空间注意力机制提取特征信息,采用改进的特征金字塔注意力模块提取多尺度特征,利用亚像素卷积模块经上采样获取更精细的孔隙边缘并恢复为原始分辨率。实验结果表明,与阈值分割算法和基于主动轮廓的岩心FIB-SEM分割算法相比,该算法分割精度更高且无需人工操作,其平均像素精度和平均交并比分别达到90.00%和85.81%。  相似文献   

17.
针对卷积神经网络中卷积层参数冗余,运算效率低的问题,从卷积神经网络训练过程中参数的统计特性出发,提出了一种基于统计分析裁剪卷积核的卷积神经网络模型压缩方法,在保证卷积神经网络处理信息能力的前提下,通过裁剪卷积层中对整个模型影响较小的卷积核对已训练好的卷积神经网络模型进行压缩,在尽可能不损失模型准确率的情况下减少卷积神经网络的参数,降低运算量.通过实验,证明了本文提出的方法能够有效地对卷积神经网络模型进行压缩.  相似文献   

18.
康天赐  姚宇  萧力芮 《计算机应用》2021,41(z2):362-366
针对传统卷积神经网络U-Net对早期肝脏肿瘤的分割精度低的问题,在U-Net的基础上提出了基于深度Q学习和可变形卷积U-Net的肝脏肿瘤分割方法.首先使用深度Q学习对图像进行肿瘤目标定位,然后对目标肿瘤区域使用可变形卷积的U-Net进行分割,最后实现了粗剪裁到细分割的两段式学习框架.实验结果表明,利用该方法在肝脏肿瘤数据集上测试,其分割结果的Dice系数能够达到68%,较传统的卷积神经网络U-Net精度提升了6.89个百分点.  相似文献   

19.
利用神经网络能通过进行建筑像素标记实现航空图像分割,但也存在分割边界模糊的问题,导致分割结果不理想.为此,本文以卷积神经网络U–net和FCN–8s基本网络模型,实现端到端训练.在此基础上,结合建立了全卷积神经网络结合多尺度特征和注意力机制的网络模型,提升了分割边界的清晰度.将多尺度特征和注意力机制的模型与基本模型进行对比,分析了真实与预测之间的相关度和相似度,并将预测结果进行对比.实验结果表明,结合多尺度特征和注意力机制的分割模型,分割边界更清晰,相对于相同训练规模的全卷积网络交并比高2%, Dice系数高3%,得到较好的分割结果.  相似文献   

20.
目前基于端到端的卷积神经网络在文本情感分析中大量应用,但是其缺乏对罕见词的处理以及对不同领域的泛化性。基于此提出了一种加入词典特征以及词性特征进行特征增强的卷积神经网络模型——多特征改进卷积神经网络模型。首先采用字特征、词典特征以及词性特征表示句子向量,其次采用分段多池操作抽取重要特征,最后采用投票机制判段文本的情感倾向性。实验中,在数据集相同的情况下与多种情感分析网络模型的进行对比,MFICNN模型的情感识别精度最高,达到了0.944。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号