首页 | 本学科首页   官方微博 | 高级检索  
     

一种基于会聚双目立体视觉的用户化身模型
引用本文:李自力, 朱光喜, 朱耀庭. 一种基于会聚双目立体视觉的用户化身模型[J]. 电子与信息学报, 2003, 25(6): 763-770.
作者姓名:李自力  朱光喜  朱耀庭
作者单位:华中科技大学电子与信息工程系,图像信息处理与智能控制教育部开放研究实验室,武汉,430074
摘    要:在简单会聚式双目立体视觉模型的基础上,提出了具有9自由度的用户化身视觉模型用于虚拟场景的成像变换,导出了用虚拟场景点的世界坐标和用户化身视觉模型的9自由度变量表示的左、右双目虚拟摄像机的成像公式,求出了9自由度用户化身视觉模型的左、右双目成像的视差与场景点深度信息的关系及相应的计算公式。仿真实验结果表明了该模型的可行性和计算方法的可靠性,同时表明该模型比简单会聚式双目立体视觉模型更接近人的视觉习惯,因此更具有实用性。

关 键 词:虚拟现实   虚拟场景   用户化身   立体视觉   视差   深度信息
收稿时间:2001-10-18
修稿时间:2001-10-18
本文献已被 CNKI 维普 万方数据 等数据库收录!
点击此处可从《电子与信息学报》浏览原始摘要信息
点击此处可从《电子与信息学报》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号