首页 | 本学科首页   官方微博 | 高级检索  
     

面向图像语义分割任务的多级注意力蒸馏学习
引用本文:刘佳琦,杨璐,王龙志. 面向图像语义分割任务的多级注意力蒸馏学习[J]. 智能计算机与应用, 2021, 11(5): 13-18,25. DOI: 10.3969/j.issn.2095-2163.2021.05.004
作者姓名:刘佳琦  杨璐  王龙志
作者单位:天津理工大学天津市先进机电系统设计与智能控制重点实验室,天津300384;天津理工大学机电工程国家级实验教学示范中心,天津300384;奥特贝睿(天津)科技有限公司,天津300300
摘    要:传统的蒸馏学习仅通过大网络对轻量网络进行单向蒸馏,不但难以从轻量网络的学习状态中得到反馈信息,对训练过程进行优化调整,同时还会限制轻量网络的特征表达能力.本文提出结合自身多级注意力上下文信息进行自我学习优化的方法(MAD,Multi Attention Distillation),以自监督的方式使自身成熟的部分约束不成...

关 键 词:蒸馏学习  语义分割  注意力  卷积神经网络

MAD:Multi attention distillation learning for semantic segmentation
LIU Jiaqi,YANG Lu,WANG Longzhi. MAD:Multi attention distillation learning for semantic segmentation[J]. INTELLIGENT COMPUTER AND APPLICATIONS, 2021, 11(5): 13-18,25. DOI: 10.3969/j.issn.2095-2163.2021.05.004
Authors:LIU Jiaqi  YANG Lu  WANG Longzhi
Abstract:
Keywords:
本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号