共查询到17条相似文献,搜索用时 203 毫秒
1.
介绍了双目立体视觉三角测距原理和视觉测量系统,双目摄像机拍摄彩色图像,提取颜色、轮廓、纹理等识别特征用于目标区域识别。采用区域匹配算法获得视差图,根据视差计算目标区域的三维坐标信息。完成了目标测量实验并对实验结果进行分析。 相似文献
2.
本文基于双目视觉原理,设计实现了一种对特定工件空间定位方法。首先对双目视觉系统进行标定,根据标定结果进行图像矫正,使用基于区域的立体匹配算法求取视差图,结合特征点对应视差值和标定结果对图像进行三维重构,获得工件表面的高度位置信息;根据工件特征,通过拟合获得的工件一组同轴圆的圆心三维坐标,确定工件在摄像机坐标系下的位置和姿态,实现工件的空间定位。 相似文献
3.
4.
提出了一种新的基于编码光栅和外极线约束的三维曲面匹配算法,该算法有效解决了立体视觉中的图像匹配问题,即左右图像光栅条纹的对应关系确定问题。另外,采用外极线约束将可能的候选点限制在直线分布,即将查找范围由二维降为一维。这种算法极大地减小了图像匹配的运算量,同时减小了错误匹配的概率。实验表明,采用编码光栅投影与外极线约束的视觉测量能够准确有效地匹配出自由曲面的三维立体轮廓。 相似文献
5.
基于运动恢复的双目视觉三维重建系统设计 总被引:3,自引:0,他引:3
对基于双目立体视觉的一种三维重建系统进行了改进和扩展。将视差细化处理环节引入现有系统,使原视差及相邻视差的匹配代价拟合为一条二次曲线,并为该曲线重新寻找更加精确的视差。进一步将运动恢复计算环节引入系统,通过估计当前视角的摄像机运动矩阵和以跟踪点和摄像机运动矩阵为参数构造能量函数,对能量函数进行优化来有效缩小误差,恢复出准确的运动矩阵。实验结果表明:新增的视差细化处理环节有效提升了重建点云的精度,使细化前后三维重建结果误差平均减少了16.3%,避免了片状点云现象;新增的运动恢复优化环节,能够精确地恢复摄像机的运动矩阵,优化后三维重建结果平均重投影误差减少了95.5%;重构后不同视角的点云之间不再孤立,重建模型整体拼接自然。 相似文献
6.
7.
"伊诺"机器人搭载有一对双目摄像机,可以模仿人的双眼,在室内环境下获取障碍物信息。现基于立体视觉原理,建立起图像物理坐标与空间实际点的三维坐标关系,形成基于视觉显著性的立体区域匹配算法,获取障碍物的信息,建立室内环境信息地图,为后续机器人路径导航提供地图信息。 相似文献
8.
9.
计算机视觉在网格应变测量领域的应用已成为研究热点,本实验是基于先进的图像处理软件HALCON,利用双目立体视觉原理,对印制有圆形网格的板料应变测量.首先采用印制有圆形标志点的平面标准标定板,对摄像机进行标定,获得摄像机的内外参数.采用基于NCC的匹配方法对左右图像特征点进行匹配,利用视差原理获得匹配点的三维坐标,对印制有圆形网格的板料进行三维重建.然后根据圆形网格变形后的椭圆长短轴的长度变化,计算得到真实应变,用OpenGL语言将应变可视化. 相似文献
10.
精确稠密视差估计是立体视觉系统恢复观测场景三维信息的关键。从立体视觉在机器人环境感知的实际应用角度出发,提出了对于弱纹理、阴影和遮挡等关键影响因素,具有良好鲁棒性、精度和处理速度的稠密视差图估计算法。针对弱纹理、阴影和深度不连续的问题,设计了基于灰度相似度概率的置信度传播算法,结合视差平滑约束,以期实现较高精度的视差初值快速估计。由视差级数定义的消息向量通过异向平行迭代进行传播,消息向量包含表征像素点灰度相似性和平滑性的能量信息,通过全局能量函数的迭代收敛,快速获得视差初始估计。根据独立连通区域通常具有相似纹理特征和视差一致性的先验知识,提出了基于Mean-Shift聚类分割算法和参数空间投票自适应视差近似面估计算法,进行稠密视差的精细优化估计。利用具有不同弱纹理特征的5组标准测试图像、4组室内环境实际图像、4组室外环境实际图像和4组月面模拟特殊光照环境的实际环境图像进行了测试实验,实验结果表明了本文算法的良好鲁棒性和有效性。 相似文献
11.
为精确构建计算机立体视觉中的视差图,提出了一种快速全局优化匹配算法。该算法采用吉布斯随机场模型描述空间点与其邻域之间的关系,由改进的Graph Cuts方法对空间点的邻域进行匹配来获取场景的致密视差图。首先,计算出一组具有明确匹配关系的稀疏匹配点,将这些匹配点命名为“支撑点”;然后,对每一个支撑点的邻域进行扩展,采用改进的Graph Cuts全局优化算法计算扩展后的邻域空间的匹配关系,并将满足一定匹配度的邻域点设置为新的支撑点。最后,重复上述步骤并逐级扩展,直至扩展出的匹配空间覆盖整个视图,进而获取待匹配图对的致密视差图。实验结果表明,该方法不仅对不同场景视差图的质量具有良好的一致性,而且匹配速度较快(匹配时间约为0.8~1.2 s),大大高于其他传统的全局匹配算法。为体现本文算法的实际应用价值,以Smart Eye Ⅱ立体视觉试验台为测试平台,对真实场景进行了视差图构建,取得了良好的试验效果。 相似文献
12.
用于弱纹理场景三维重建的机器人视觉系统 总被引:1,自引:0,他引:1
为了实现机器人在弱纹理场景中的避障和自主导航,构建了由双目相机和激光投点器构成的主动式双目视觉系统。对立体视觉密集匹配问题进行了研究:采用激光投点器投射出唯一性和抗噪性较好的光斑图案,以增加场景的纹理信息;然后,基于积分灰度方差(IGSV)和积分梯度方差(IGV)提出了自适应窗口立体匹配算法。该算法首先计算左相机的积分图像,根据积分方差的大小确定匹配窗口内的图像纹理质量,然后对超过预设方差的阈值与右相机进行相关计算,最后通过遍历整幅图像得到密集的视差图。实验结果表明:该视觉系统能够准确地恢复出机器人周围致密的3D场景,3D重建精度达到0.16mm,满足机器人避障和自主导航所需的精度。与传统的算法相比,该匹配方法的图像方差计算量不会随着窗口尺寸的增大而增加,从而将密集匹配的运算时间缩短了至少93%。 相似文献
13.
一种基于区域立体匹配算法的实现及改进 总被引:1,自引:1,他引:0
在立体视觉中,立体匹配是立体视觉中算法中最重要也是最难的部分。如何更快更精确的建立两幅图像的匹配基元之间的对应关系,以及解决区域匹配算法计算量大等缺点,一直是立体匹配中的热点。文中首先将图象进行外极线校正,在此基础上,采用一种隐含约束条件结合唯一性约束条件的单向匹配算法(SMP算法),完成了初次匹配及初次去除伪匹配,再采用一种伪极线约束条件,对得到的匹配对进行二次去除伪匹配,最后,对得到的视差图进行插值运算,提高了匹配精度。另外,在匹配过程中,通过Box滤波加速方法,减少了计算匹配窗口相似性的复杂度,缩短了程序运行时间,可以满足系统对实时性的要求。 相似文献
14.
15.
针对水下双目立体视觉成像稠密立体匹配因不满足空气中极线约束问题,提出一种水下对应点匹配与三维测量方法,可将水下双目相机采集的立体图像校正为符合共面行对齐原则的图像对,再套用空气中成熟的立体匹配方法得到水下左右相机图像视差图,从而实现水下目标的三维重建。首先,将进入相机的所有光线总和看成光场,采用四维光场参数表达对每一条光线建模,据此建立相机的折射成像模型和双目立体视觉模型并计算光线的方向向量;根据光线的光场表达将光线转化为点矢量的形式,计算方向图像上任意像点对应原图像的像素坐标并确定位置映射关系。通过插值即可快速得到符合行对齐原则的左、右方向图像,并最终获得每条光线对应的视差图。仿真结果表明,方向图像的行对齐误差小于0.8 pixel。水池实验采用事先标定的靶球作为目标物,利用随机散点主动投射以增加目标物表面的纹理信息,对靶球多次测量的均方根误差为2.8 mm,具有较高的测量精度。 相似文献
16.
17.
立体视觉中的图像立体匹配方法 总被引:1,自引:0,他引:1
图像立体匹配是立体视觉的核心技术,在三维重建、视觉测量及目标识别等领域中得到了广泛的研究和应用.根据立体匹配技术特点,图像立体匹配可分为三大类:局部立体匹配、全局立体匹配和半全局立体匹配.着重介绍了前两大类中典型的图像立体匹配方法.对各种图像立体匹配方法的匹配算法进行了分析研究,并对图像立体匹配方法的发展提出了一些建议. 相似文献