首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
王鑫  张昊宇  凌诚 《计算机科学》2021,48(z2):376-381
多光谱图像的分割是遥感图像解译的重要基础环节,SAR遥感图像中包含着复杂的地物目标信息,传统的分割方法存在耗时长、效率低等问题,导致传统图像分割方法的应用受限.近年来,深度学习算法在计算机视觉方向的应用取得了较好的成果,针对多光谱遥感影像语义分割问题,使用深度学习的语义分割方法来实现遥感影像的高性能分割,在U-Net网络结构上添加激活层、Dropout层、卷积层,提出一种基于U-Net优化的深度卷积神经网络,在少量数据集的基础上实现了对以SAR图像合成的多光谱影像中耕地、建筑、河流的快速检测,整体分割准确率达94.6%.与U-Net,SegNet的对照实验结果表明,所提方法的分割准确率相比U-Net,SegNet整体较优,相比U-Net和SegNet分别提升了2.5%与5.8%.  相似文献   

2.
王施云  杨帆 《计算机科学》2021,48(8):162-168
高分辨率遥感影像的空间分辨率高、地物信息丰富、复杂程度高、各类地物的大小尺寸不一,这为分割精度的提高带来了一定的难度.为提高遥感影像语义分割精度,解决U-Net模型在结合深层语义信息与浅层位置信息时受限的问题,文中提出了一种基于U-Net特征融合优化策略的遥感影像语义分割方法.该方法采用基于U-Net模型的编码器-译码器结构,在特征提取部分沿用U-Net模型的编码器结构,提取多个层级的特征信息;在特征融合部分保留U-Net的跳跃连接结构,同时使用提出的特征融合优化策略,实现了高层语义特征与底层位置特征的融合-优化-再融合.此外特征融合优化策略还使用空洞卷积获取了更多的全局特征,并采用Sub-Pixel卷积层代替传统转置卷积,实现了自适应上采样.所提方法在ISPRS的Potsdam数据集和Vaihingen数据集上得到了验证,其总体分割精度、Kappa系数和平均交并比mIoU 3个评价指标在Potsdam数据集上分别为86.2%,0.82,0.77,在Vaihingen数据集上分别为84.5%,0.79,0.69;相比传统的U-Net模型,所提方法的3个评价指标在Potsdam数据集上分别提高了5.8%,8%,8%,在Vaihingen数据集上分别提高了3.5%,4%,11%.实验结果表明,基于U-Net特征融合优化策略的遥感影像语义分割方法,在Potsdam数据集和Vaihingen数据集上都能达到很好的语义分割效果,提高了遥感影像的语义分割精度.  相似文献   

3.
针对乳腺超声图像边缘模糊、斑点噪声多、对比度低等问题,提出了一种融合多特征的边缘引导多尺度选择性核U-Net(Edge-guided Multi-scale Selective Kernel U-Net, EMSK U-Net)方法。EMSK U-Net采用基于U-Net的对称编解码结构可以适应小数据集医学图像分割的特点,将扩张卷积与传统卷积构成选择性核模块作用于编码路径,并提取下采样过程中的选择性核特征进行边缘检测任务,在丰富图像空间信息的同时细化边缘信息,有效缓解斑点噪声和边缘模糊的问题,在一定程度上可以提升小目标的检测精度。然后在解码路径通过多尺度特征加权聚合获取丰富的深层语义信息,多种信息之间相互补充,从而提升网络的分割性能。在3个公开的乳腺超声图像数据集上的实验结果表明,与其他分割方法相比,EMSK U-Net算法各项指标表现良好,分割性能有显著提升。  相似文献   

4.
为了解决在街道场景图像语义分割任务中传统U-Net网络在多尺度类别下目标分割的准确率较低和图像上下文特征的关联性较差等问题, 提出一种改进U-Net的语义分割网络AS-UNet, 实现对街道场景图像的精确分割. 首先, 在U-Net网络中融入空间通道挤压激励(spatial and channel squeeze & excitation block, scSE)注意力机制模块, 在通道和空间两个维度来引导卷积神经网络关注与分割任务相关的语义类别, 以提取更多有效的语义信息; 其次, 为了获取图像的全局上下文信息, 聚合多尺度特征图来进行特征增强, 将空洞空间金字塔池化(atrous spatial pyramid pooling, ASPP)多尺度特征融合模块嵌入到U-Net网络中; 最后, 通过组合使用交叉熵损失函数和Dice损失函数来解决街道场景目标类别不平衡的问题, 进一步提升分割的准确性.实验结果表明, 在街道场景Cityscapes数据集和CamVid数据集上AS-UNet网络模型的平均交并比(mean intersection over union, MIoU)相较于传统U-Net网络分别提高了3.9%和3.0%, 改进的网络模型显著提升了对街道场景图像的分割效果.  相似文献   

5.
为解决传统模型与算法对遥感卫星图像小目标的分割精度低、泛化能力差等问题,提出一种基于改进U-Net的图像分割算法。将骨干网络改为ResNet18并加入优化后的空洞卷积池化金字塔与卷积注意力机制模块,充分提取小目标边缘特征。该算法在中国南部某地区的公开卫星图像数据集上的平均交并比与分割总精度分别达到了75.8%与95.6%,均超过U-Net、DeepLabV3+、SegNet、W-Net等主流语义分割网络。实验结果表明,该算法能有效改善网络的预测精度与小目标的分割结果。  相似文献   

6.
亢洁  丁菊敏  万永  雷涛 《计算机工程》2020,46(1):255-261,270
在利用卷积神经网络分割肝脏边界较模糊的影像数据时容易丢失位置信息,导致分割精度较低。针对该问题,提出一种基于分水岭修正与U-Net模型相结合的肝脏图像自动分割算法。利用U-Net分层学习图像特征的优势,将浅层特征与深层语义特征相融合,避免丢失目标位置等细节信息,得到肝脏初始分割结果。在此基础上,通过分水岭算法形成的区域块对肝脏初始分割结果的边界进行修正,以获得边界平滑精确的分割结果。实验结果表明,与传统的图割算法和全卷积神经网络算法相比,该算法能够实现更为精准的肝脏图像分割。  相似文献   

7.
王平  高琛  朱莉  赵俊  张晶  孔维铭 《计算机应用》2019,39(11):3274-3279
为了解决人工勾画缺血性脑卒中病灶费时费力且易引入主观差异的问题,提出了一种基于三维(3D)深度残差网络与级联U-Net的自动分割算法。首先,为了有效利用图像的3D上下文信息并改善类不平衡现象,将脑卒中核磁共振图像(MRI)采样成图像块作为网络输入;然后,利用基于3D深度残差网络与级联U-Net的分割模型对图像块进行特征提取,获得粗分割结果;最后,对粗分割结果进行精分割处理。在ISLES数据集上的实验结果表明,该算法的Dice系数可达到0.81,精确度可达到0.81,灵敏度可达到0.81,平均对称表面距离(ASSD)距离系数为1.32,HD为22.67。所提算法与3D U-Net算法、基于水平集算法、基于模糊C均值(FCM)算法和基于卷积神经网络(CNN)算法相比分割性能更好。  相似文献   

8.
交通场景语义分割在自动驾驶中必不可少.为了解决目前的交通场景语义分割方法中由于池化、卷积等操作而造成的目标边界分割模糊、多类别目标及相似物体分割精度低等问题,提出一种带注意力机制的卷积神经网络分割方法.特征提取时,引入多样化的扩张卷积,以挖掘多尺度的语义信息.在信息解码后,添加通道及空间双注意力模块,可以在通道和空间两个维度层面进行注意力特征提取,让网络在学习过程中更侧重于重要信息.在Cityscapes数据集上的实验结果表明,该语义分割网络的平均交并比(MIoU)可达71.6%,超过了基网络为ResNet50的DeepLabv3+语义分割网络.所提方法能更加精细地分割出近似物体及多类别目标,对复杂交通场景图像的理解力更强.  相似文献   

9.
康天赐  姚宇  萧力芮 《计算机应用》2021,41(z2):362-366
针对传统卷积神经网络U-Net对早期肝脏肿瘤的分割精度低的问题,在U-Net的基础上提出了基于深度Q学习和可变形卷积U-Net的肝脏肿瘤分割方法.首先使用深度Q学习对图像进行肿瘤目标定位,然后对目标肿瘤区域使用可变形卷积的U-Net进行分割,最后实现了粗剪裁到细分割的两段式学习框架.实验结果表明,利用该方法在肝脏肿瘤数据集上测试,其分割结果的Dice系数能够达到68%,较传统的卷积神经网络U-Net精度提升了6.89个百分点.  相似文献   

10.
刘彬  刘宏哲 《计算机科学》2020,47(4):142-149
针对实际驾驶环境中道路场景及车道线复杂多样的问题,提出一种基于改进Enet网络的车道线检测算法。首先,对Enet网络进行剪枝和卷积优化操作,并利用改进的Enet网络对车道线进行像素级图像语义分割,将车道线从图像中分离出来。然后,采用DBSCAN算法对分割结果进行聚类处理,将相邻车道线区分开来。最后,对车道线聚类结果进行自适应拟合,得到最终的车道线检测结果。该算法在香港中文大学的CULane数据集上进行了训练和测试,结果表明,其标准路面检测准确率达到96.3%,各种路面综合检测准确率为78.9%,图像帧处理速度为71.4fps,能够满足实际驾驶环境中的复杂路况和实时性需求。此外,该算法还在图森未来的TuSimple数据集和实采数据集LD-Data上进行了训练和测试,均取得了实时性的检测结果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号