首页 | 本学科首页   官方微博 | 高级检索  
     

采用多级拓扑图卷积网络的可变形三维着装人体重建EI北大核心CSCD
作者姓名:毛爱华禚冠军禤骏
作者单位:1.华南理工大学计算机科学与工程学院510006;
基金项目:广东省自然科学基金面上项目(2019A1515010833);中央高校自然科学类项目(2020ZYGXZR089)。
摘    要:为了从单幅图像或者多幅图像中重建出可变形的着装人体,提出了一种采用蒙皮多人线性模型(skinned multi-personlinear model,SMPL)的多级拓扑构建的图卷积神经网络(multi-leveltopology graph convolutional network,MTGCN).首先,通过现有方法从图像中预计算对应姿势和体型的光滑人体SMPL模型,并通过图像特征提取网络得到人体的局部特征图;然后,将SMPL模型顶点投影到特征图中,以获取具体位置的局部特征;最后,利用MTGCN对模型顶点偏移产生着装效果,其下采样与上采样模块可融合局部特征从而获取全局特征,并结合残差模块用于弥补全局特征中丢失的局部信息,从而提升重建的人体质量.在使用MGN与SURREAL合成的图像数据集上,实验结果表明,与目前类似的工作相比,该方法能够产生更低的倒角距离误差与点到曲面的距离误差,并且在人体服装细节与人体部位等方面展示出了更好的结果.此外,生成的三维人体模型可以直接在姿势或者体型上变形,以快速生成着装人体动画.

关 键 词:机器学习  图卷积神经网络  三维人体重建  着装人体
本文献已被 维普 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号