首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 62 毫秒
1.
为了使全方位视觉传感器(Omni-Directional Vision Sensor,ODVS)获取的全景图像上各像素本身具有成像物点的深度信息,文中设计了一种具有单发射中心点(Single Emission Point,SEP)的全景彩色体结构光发生器(Panoramic Color Structured Light Generator,PCSLG)以配合具有单视点(Single View Point,SVP)成像特点的ODVS;然后将ODVS和PCSLG垂直配置在同一轴心线上,实现一种主动式立体全景视觉传感器(Active Stereo Omni-Directional Vision Sensor,ASODVS);最后根据全景图像上各像素点所带光源的颜色信息,通过颜色识别算法以及ODVS和PCSLG的几何关系推断PCSLG的发射角并估算成像物点的深度值.实验结果表明,该文设计的ASODVS能快速实时进行全景立体图像的特征点实时匹配和空间物点深度的测量,实现了一种以观察者为中心的3D主动立体视觉感知.  相似文献   

2.
为了解决立体视觉测量中的快速匹配问题,文中通过集成全景彩色结构光发生器和全方位视觉传感器构建一种主动式立体全景视觉传感器;通过分析图像像素的颜色和投射角之间的映射关系估算全景图像上各像素息对应的投射角,利用三角关系计算对应物点的深度信息;实验结果表明该方法能快速地得到场景的全景深度信息。  相似文献   

3.
基于双目立体视觉的复杂背景下的牛体点云获取   总被引:2,自引:0,他引:2  
提出一种基于双目立体视觉的复杂背景下的牛体点云获取方法。在点云获取过程中,针对牛不是保持不动的实际情况,采用基于被动视觉技术的双目立体视觉方法;在相机标定过程中,进行单目标定获取相机内部参数,统一标定获取相机外部参数,针对牛体毛色及所处环境复杂的情况,采用基于贝叶斯的皮肤检测算法提取牛体图像,采用基于SIFT的特征点提取和匹配方法实现特征点的匹配,利用计算机视觉中的极线几何原理,剔除误匹配点,通过相机的成像模型求取牛体的三维点云。实验验证了该方法能够在复杂背景下获取牛体点云,并得到较好的点云数据,较好解决了双目立体视觉中相机标定和立体匹配两个较关键和困难的问题。  相似文献   

4.
从全方位视觉传感器ODVS( Omni-Directional Vision Sensor)的成像原理出发,指出双目立体全方位视觉传感器BOD-VS (Binocular stereo Omni- Directional Vision Sensor)的测量精度受基线距、测量距离和摄像机采集图像量化精度的影响;在同等条件下,证明了BODVS测量精度与基线距成正比、与测量距离平方成反比;为了便于进一步分析影响BODVS测量精度的因素,提出了一种ODVS的标定方法,并使用标定结果,在BODVS的基线距分别为62. 198 cm、82. 198 cm和102.198cm下,通过测距实验验证了上述结论.  相似文献   

5.
以作为游戏输入的双目视觉系统为载体,分析了双目立体视觉系统在此环境中需要满足的一些特殊的约束,结合双目视觉本身的经典约束,构造一种可以同时满足实时性和一定的精确性的图像特征点匹配方法。此方法先使用极几何校正和单应性约束求取图像偏差,然后采用快速匹配算法在局部范围内得到匹配点,充分满足了系统对实时性和精确性的要求。  相似文献   

6.
立体视觉中的双目匹配方法研究   总被引:12,自引:0,他引:12  
本文首先对已有的双目立体视觉方法进行分析和总结 ,并依所选取的匹配特征和匹配方法的不同而将其分为利用灰度图像区域间相似性、特征点相关、边界或二阶导数过零点、二值拉普拉斯图像匹配、校正透视形变、动态规划、利用区域分割的结果和立体视觉连续性原理的各种演绎等类 ;然后对用金字塔图匹配边界基元的双目立体视觉方法进行了重点探讨 ;本文还对利用基极线约束实现匹配进行详细分析与推导  相似文献   

7.
现有的3D摄像机在立体拍摄过程中参数调整困难,难以保证左右2台摄像机动作的协调性和一致性。针对该问题,提出一种基于立体视觉的立体拍摄参数自动获取方法。由4台全方位视觉传感器构成的全景3D摄像机获取全景立体图像,通过立体图像处理技术自动获取立体拍摄所需要的汇聚点位置、拍摄距离、焦距以及光圈系数等参数。实验结果表明,该方法能有效保证焦距、拍摄方向、拍摄角度和3D深度等3D拍摄参数的一致性,解决3D拍摄过程中2台摄像机在拍摄动作以及立体景深参数调整等协调难的问题,在拍摄3D全景视频图像的同时进行3D特写视频图像的拍摄,实现在显示器上全景点控的自动3D特写视频图像拍摄。  相似文献   

8.
《软件工程师》2019,(3):5-8
针对双目视觉立体图像特征点匹配质量不好导致定位精度低的问题,本文提出改进SURF匹配的特征点定位方法。在改进的SURF匹配算法中,采用双向匹配、NNDR约束、对称性约束、极线约束和交叉匹配约束的方法,提高了图像特征点匹配的质量。在双目视觉特征点定位中,采用公垂线段中点法具有更高的特征点定位精度。实验证明,该算法的特征点定位精度更高,同时可以达到实时三维重建效率。  相似文献   

9.
汤一平  姜荣剑  林璐璐 《计算机科学》2015,42(3):284-288, 315
针对现有的移动机器人视觉系统计算资源消耗大、实时性能欠佳、检测范围受限等问题,提出一种基于主动式全景视觉传感器(AODVS)的移动机器人障碍物检测方法。首先,将单视点的全方位视觉传感器(ODVS)和由配置在1个平面上的4个红色线激光组合而成的面激光发生器进行集成,通过主动全景视觉对移动机器人周边障碍物进行检测;其次,移动机器人中的全景智能感知模块根据面激光发生器投射到周边障碍物上的激光信息,通过视觉处理方法解析出移动机器人周边障碍物的距离和方位等信息;最后,基于上述信息采用一种全方位避障策略,实现移动机器人的快速避障。实验结果表明,基于AODVS的障碍物检测方法能在实现快速高效避障的同时,降低对移动机器人的计算资源的要求。  相似文献   

10.
为了解决并联机器人加工点定位精度问题,构建了双目主动视觉监测平台.基于双目主动视觉的刀具图像特征点的提取和匹配是加工点定位的核心.结合刀具边缘特点,对特征所在极线的区域局部校正算法改进,给出一种并联机器人加工刀具匹配方法及其实现.提取刀具图像的边缘线拐点作为特征点,根据对极几何的立体成像关系,对以特征点为中心的图像局部区域进行方向和尺度校正,通过区域相似度准则求取同名点,并对三维重建.采用对并联机器人加工刀具进行测量,实现了主要特征点匹配.进行仿真,实验表明,上述方法可提高图像匹配的精度和速度,能够较精确地对刀具加工点实现三维重建.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号