首页 | 本学科首页   官方微博 | 高级检索  
     

融合语义—表观特征的无监督前景分割
引用本文:李熹,马惠敏,马洪兵,王弈冬.融合语义—表观特征的无监督前景分割[J].中国图象图形学报,2021,26(10):2503-2513.
作者姓名:李熹  马惠敏  马洪兵  王弈冬
作者单位:清华大学, 北京 100084;北京科技大学, 北京 100083;清华大学, 北京 100084;新疆大学, 乌鲁木齐 830046
基金项目:国家自然科学基金项目(U20B2062;61773231);国家重点研发计划项目(2016YFB0100901);北京市科学技术项目(Z191100007419001)
摘    要:目的 前景分割是图像理解领域中的重要任务,在无监督条件下,由于不同图像、不同实例往往具有多变的表达形式,这使得基于固定规则、单一类型特征的方法很难保证稳定的分割性能。针对这一问题,本文提出了一种基于语义-表观特征融合的无监督前景分割方法(semantic apparent feature fusion,SAFF)。方法 基于语义特征能够对前景物体关键区域产生精准的响应,但往往产生的前景分割结果只关注于关键区域,缺乏物体的完整表达;而以显著性、边缘为代表的表观特征则提供了更丰富的细节表达信息,但基于表观规则无法应对不同的实例和图像成像模式。为了融合表观特征和语义特征优势,研究建立了融合语义、表观信息的一元区域特征和二元上下文特征编码的方法,实现了对两种特征表达的全面描述。接着,设计了一种图内自适应参数学习的方法,用于计算最适合的特征权重,并生成前景置信分数图。进一步地,使用分割网络来学习不同实例间前景的共性特征。结果 通过融合语义和表观特征并采用图像间共性语义学习的方法,本文方法在PASCAL VOC(pattern analysis,statistical modelling and computational learning visual object classes)2012训练集和验证集上取得了显著超过类别激活映射(class activation mapping,CAM)和判别性区域特征融合方法(discriminative regional feature integration,DRFI)的前景分割性能,在F测度指标上分别提升了3.5%和3.4%。结论 本文方法可以将任意一种语义特征和表观特征前景计算模块作为基础单元,实现对两种策略的融合优化,取得了更优的前景分割性能。

关 键 词:计算机视觉  前景分割  无监督学习  语义—表观特征融合  自然场景图像  PASCAL  VOC数据集  自适应加权
收稿时间:2020/8/21 0:00:00
修稿时间:2020/11/19 0:00:00

Semantic-apparent feature-fusion-based unsupervised foreground segmentation method
Li Xi,Ma Huimin,Ma Hongbing,Wang Yidong.Semantic-apparent feature-fusion-based unsupervised foreground segmentation method[J].Journal of Image and Graphics,2021,26(10):2503-2513.
Authors:Li Xi  Ma Huimin  Ma Hongbing  Wang Yidong
Affiliation:Tsinghua University, Beijing 100084, China;University of Science and Technology Beijing, Beijing 100083, China;Tsinghua University, Beijing 100084, China;Xinjiang University, Urumqi 830046, China
Abstract:
Keywords:computer vision  foreground segmentation  unsupervised learning  semantic-apparent feature fusion  natural scene images  PASCAL VOC dataset  adaptive weighting
点击此处可从《中国图象图形学报》浏览原始摘要信息
点击此处可从《中国图象图形学报》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号