首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
自动导引车多摄像机主动导引系统的协同标定   总被引:1,自引:1,他引:0  
通过多个导引驱动模块可构成用于重载搬运的自动导引车(AGV),固定在每个模块上的摄像机组成了多目视觉主动导引系统。本文针对多驱动模块的协同导引,提出了一种多摄像机主动导引系统的协同标定方法。首先,通过平面模板法完成单个驱动模块上摄像机内部参数、外部参数的标定;然后通过控制各个驱动模块协同运动,利用特征轨迹约束法估计摄像机相对于驱动模块的位姿误差、不同驱动模块之间的装配误差。建立单个模块的视觉测量坐标系与 AGV 整车运动控制坐标系之间的变换模型。不依赖精密辅助测量工具,具有较高的精度及可实施性。  相似文献   

2.
摄像机标定是通过实验测定一组参数来描述给定的机器视觉系统的成像过程,包括摄像机的内部参数和外部参数。提出了一种简单的适用于轮廓检测的摄像机标定方法。使用正方形标定模板,在像素级别处理图片,根据直线特征约束和正方形的性质先求出摄像机的畸变系数,再用最小二乘法求摄像机的外部参数。该方法仅用1个正方形轮廓就可以完成标定,从而简化了摄像机标定的步骤,同时采用了一种新方法求畸变中心。实验表明,这种适用于轮廓检测的摄像机标定方法简单并有效。  相似文献   

3.
基于摄像机位姿估计的数学模型,提出了一种检测摄像机位移前后目标图像特征点的方法,通过求解摄像机发生位移前后的相对位姿矩阵来解决应用视觉图像获得点云的初始配准问题。首先,介绍了摄像机位姿估计模型,包括本质矩阵、旋转矩阵以及平移矩阵;然后,介绍了SURF算子的特征点检测、描述和匹配的方法,在此基础上面向双目视觉和单目结构光系统,分别提出了摄像机位移前后目标图像SURF特征点匹配和深度估计模型;最后,分别进行双目视觉和单目结构光系统点云的获取、位移前后目标图像特征点检测匹配和深度估计实验,应用摄像机位姿估计模型求解旋转矩阵和位移矩阵,并对位移矩阵进行统计分析剔除粗差。实验中采用基于点云空间特征点和基于图像的方法进行对比,点云对应特征点均方误差缩小至12.46mm。实验结果验证了方法的可行性,表明本文的点云初始配准方法能较好地获得点云精确配准初值。  相似文献   

4.
由于视觉监控中运动目标跟踪的准确性易受遮挡、摄像机运动、目标外观变化等因素的影响,本文提出了一种结合分段复合权值与多策略的视觉跟踪算法。该算法首先利用目标、背景以及候选区域特征信息建立分段的复合权值得到目标的位置概率分布。然后结合空间一致性和滞后阈值分割目标位置概率图以进一步抑制噪声干扰,同时通过分析分段复合权值变化判断目标遮挡,调整目标跟踪候选范围,并结合目标历史尺度信息对当前目标尺度进行自适应调整。最后,对目标以及背景区域信息进行动态更新以适应目标外观与场景变化。与典型算法进行的对比实验结果表明:该算法能够有效地应对目标遮挡与摄像机运动等因素的影响,实验时对各组视频的平均处理时间约为10ms左右,适用于复杂场景条件下运动目标的实时跟踪。  相似文献   

5.
镜像式单摄像机双目视觉传感器的结构设计   总被引:2,自引:0,他引:2  
针对传统双目视觉传感器体积大、测量效率低、成本高和图像采集需同步等缺点,建立镜像式单摄像机双目视觉传感器的结构模型,提出一种镜像式单摄像机双目视觉传感器的结构优化设计方法。传感器由单摄像机和两块呈一定角度的平面镜构成的镜像光学系统组成,摄像机置于镜像光学系统前,拍摄获得平面镜中对应同一被测物体的两个虚拟物体的一幅图像,图像中左右两半部分的同名特征对应被测物体的同一空间目标,等效于传统双目视觉传感器中左右摄像机分别采集的两幅图像中的同名特征。详细分析平面镜的尺寸、两块平面镜之间的夹角、平面镜与摄像机的距离等结构参数对视场范围和测量精度误差分布的影响,由仿真结果得出结构参数的合理取值范围,给出镜像式单摄像机双目视觉传感器结构参数的一般性设计原则与方法步骤。根据视场范围和测量精度的要求,确定镜像式单摄像机双目视觉传感器的关键结构参数。试验结果表明,提出的结构优化设计方法对工程应用具有实际指导意义。  相似文献   

6.
在对较大物体进行视觉检测时,需要移动或转动摄像机视角以获得大范围检测结果,针对此,提出预先进行空间多摄像机位置与视角布置以检测大范围物体表面的方法。确定双目系统最佳清晰度与精度区域,指出多摄像机空间布置所需满足的三个约束条件;依照平行交叠排列方式进行了平面多摄像机的布置,讨论了摄像机拍摄图像在平面布置下的数据拼接方法,推导了以外围大分辨率摄像机为中介的局部数据转换方法;利用双标定板对平面布置中两相邻双目系统进行了数据拼接实验,结果表明,平面布置的最大覆盖范围为1.98m×1.30m。标定最大误差小于0.07mm,数据拼接最大误差小于0.1mm。布置方法适应大范围物体检测需要。  相似文献   

7.
提出了一种基于显微视觉和图像处理技术的主轴回转误差测量方案。介绍了测量系统的原理,分析了特征点的提取方法,摄像机的标定方法以及特征图像的处理方法。  相似文献   

8.
陈丹  石国良 《仪器仪表学报》2016,37(10):2307-2315
针对视觉测速系统误差较大且灵活性差的特点,提出了基于视觉几何的传送带上物体速度检测的方法,该方法无需摄像机标定。通过离线和在线图像处理相关算法提取图像参考点和工件特征点,结合视觉几何学算法,计算工件在相邻帧图像中的位移,同时记录采集、处理相邻帧图像所需时间;最后应用运动学公式计算物体的移动速度。应用无标定摄像机视觉系统检测工件的移动速度,不仅弥补了标定的摄像机系统灵活性差的问题,而且也减少了摄像机标定误差和镜头畸变带来的影响。实验结果证明所提出的方法灵活性强、精度高。  相似文献   

9.
基于单目单灯的视觉导引和具有旋转能力的接驳站,自主水下航行器的末端入坞得到了研究。首先对末端导引入坞方案的基本原理包括方案中使用到的各个坐标系进行了描述;自主水下航行器、可旋转的接驳基站和视觉导引系统组成了用以验证末端导引入坞方案的试验平台;该方案采用的导引控制算法包括视觉导引算法、自主水下航行器入坞控制算法和水下接驳基站的旋转控制算法,而视觉导引算法主要包含图像获取、图像二值化、噪声点消除和目标位置估计四个阶段;在固定接驳基站和旋转接驳基站两种情况下,完成了自主水下航行器末端入坞的水池试验,水池试验结果验证了本文提出的末端导引入坞方案。该末端导引入坞方案的优点及需要改进之处在文章的最后进行了介绍。  相似文献   

10.
基于单经纬仪的视觉测量三维数据拼接方法   总被引:1,自引:0,他引:1  
本文针对大型自由曲面三维视觉测量中的数据拼接问题,建立了经纬仪透视投影模型,提出了以平面靶标为中介坐标系,以经纬仪坐标系为全局坐标系的三维数据拼接方法。在大型自由曲面的若干测量子区域附近放置一个平面靶标,通过视觉传感器拍摄平面靶标上的特征点,求得视觉传感器坐标系到靶标坐标系的变换矩阵;通过经纬仪观测靶标上的特征点,求得靶标坐标系到经纬仪坐标系的变换矩阵。因此,可求得视觉传感器坐标系到经纬仪坐标系的变换矩阵。将视觉传感器所测得的各子区域的三维数据统一到了经纬仪坐标系下,即完成了大型自由曲面的全局测量。经实验验证,数据拼接的RMS误差小于0.487mm。  相似文献   

11.
智能三坐标测量机中零件位置自动识别系统   总被引:4,自引:0,他引:4  
提出了一种基于机器视觉和CAD三维模型的零件自动定位方案,利用虚拟图像匹配的方法确定零件在工作台上的位置和方向。在CAD三维模型中,针对零件的可能放置方式通过透视成像的方法形成多幅虚拟图像。CCD产生的实际图像与各幅虚拟图像进行匹配。确定零件坐标系与机器坐标系的关系,达到定位目的。最后在三坐标测量机平台上实现了该方法,并给出了定位定向实验误差分析。  相似文献   

12.
液体灌装机桶口自定位系统以机器视觉原理为基础,利用CCD摄像机采集灌装桶口图像,经中值滤波降噪,得到加注口位置信息,成功地实现了加注口的识别与空间定位.控制系统发出脉冲指令驱动三坐标机械手,带动注射枪完成定位加注.讨论了该系统的工作原理和技术关键.  相似文献   

13.
在对直线运动坐标定位精度的干涉测量原理和方法进行深入研究的基础上,对干涉测量的误差进行了分析.采用激光干涉法检测了混联机床X轴的定位精度和重复定位精度,并作出了基于测量数据的混联机床X轴单向均位偏差特性曲线,推导出了X轴正、反向运动定位误差的数学模型.利用最小二乘法拟合得到了机床直线运动坐标目标位置的均值误差补偿数学模型,提出了一种直线运动坐标定位精度的激光干涉测量方法和误差补偿模型的建模方法,并对X轴的定位精度进行了补偿.  相似文献   

14.
针对含有遮挡区域、深孔及凹槽等特征的多面体或回转体物体,设计了一套基于立体定向靶标的探针式多视场三维视觉测量系统,并阐述该套测量系统的结构组成和基本工作原理。首先,基于近景摄影测量技术建立立体定向靶标的6个单元模型,计算靶标各侧面角点在各自单元模型内的坐标,再通过单元模型的链接和光束平差,获取全部角点的精确全局坐标,并将其作为立体定向靶标的全局控制点。然后,设计了利用共面角点辅助定位的探针,仍基于近景摄影测量技术解算出角点和测头在探针坐标系中的精确坐标。最后,利用共面的棋盘格角点与其像平面之间的单应性矩阵,推导全局坐标系、探针坐标系各自与相机坐标系的位姿关系,进而求得探针测头的全局坐标。以量块(量棒)的标准长度作为评价指标,在2m×1.5m的视场范围内测量精度优于0.1mm。测量实验表明,多视场三维视觉测量系统用于具有回转体结构特征的水壶测量,能够获取水壶表面全部区域的点云数据。  相似文献   

15.
为了实现单摄像头工作的双足机器人NAO的视觉定位,采用单目视觉技术,建立一个空间点定位模型。根据摄像机的小孔透视模型,将图像中的二维坐标通过几何关系映射为机器人坐标系中的三维坐标,实现NAO基于单目视觉技术对空间目标定位。进行了定位实验,实验结果误差在允许范围之内,验证了该定位方法的实际可行性。  相似文献   

16.
大视场多像机视频测量系统的全局标定   总被引:1,自引:6,他引:1  
针对大视场多像机视频测量系统的全局标定,提出并实现了一种基于近景摄影测量技术的高精度像机标定方法.首先,设计一种带有标志点的十字架形标定参考物,十字架正反两个表面粘贴有环形的编码标志点和圆形的非编码标志点.然后,在现场用工业摄影测量系统XJTUDP重建出双面标定十字架的精确结构尺寸数据;将标定十字架在公共视场范围内依次摆出多个姿态,并控制多像机同步拍摄各姿态的图像.最后,为大视场像机选择10参数非线性成像模型,对采集的图像组依次进行标定运算,标定出各像机的内参数和畸变参数,并全局定向出各个像机在统一坐标系下的外方位参数.实验结果表明,该标定方法的重投影误差小于0.05 pixel;利用标定结果测量高精度标准尺长度,相对误差小于1/4 000,可满足大视场多像机视频测量对精度和效率的要求.  相似文献   

17.
文中提出了一种基于ArUco marker及稀疏光流的动态目标跟踪方法,将ArUco marker与稀疏光流相结合实现动态跟踪,并改善双目匹配的精度。在具体实施过程中,基于检测到的ArUco marker标记进行旋翼无人机的动态跟踪,同时利用双目视觉系统测量并计算ArUco marker在相机坐标系下的相对坐标;然后通过平面拟合得出目标的实时位姿;最后开展了无人机抓捕实验,验证了ArUco marker结合稀疏光流动态目标跟踪方法的有效性。  相似文献   

18.
基于等高地面控制点的航空摄像机参数估计   总被引:1,自引:1,他引:0  
为满足炮射廉价航空CCD摄像机的对地定位需求,提出一种基于四个已知等高地面控制点的航空摄像机参数估计方法。该方法根据单张航空像片估计伞载空中摄像机焦距及摄像机在世界坐标系中的位置和姿态角等外参数,利用直接线性变换算法求取已知等高地面控制点与对应像点之间的单应矩阵,建立了单应矩阵与共线条件方程之间的关联关系,最后根据关联关系推导出计算航空摄像机焦距、纵横比、位置和姿态角等内外参数的数学模型。为考查该方法的有效性,分别运用室内模拟控制点和野外真实控制点进行了实验。实验结果表明:在给定四个等高地面控制点的三维坐标及对应像点的二维坐标的情况下,该方法计算焦距、纵横比、位置和姿态角等摄像机参数的相对误差约为2%,参数估计结果基本满足炮射摄像机对地成像定位需求。  相似文献   

19.
占栋  肖建 《仪器仪表学报》2015,36(9):2030-2036
多摄像机视觉测量系统中不同视觉传感器空间分布广,无公共视角,现场标定十分困难。针对多摄像机标定问题,研究了一种基于线结构光参考平面的灵活标定方法。标定过程中,以空间中同时覆盖相邻摄像机视角的结构光平面作为标定参考基准,在不同摄像机视角中,自由移动平面靶标多次,确保每次移动后靶标与结构光相交,并能在各自摄像机中清晰成像,摄像机拍摄靶标图像。提取靶标图像中角点坐标、激光光条特征点坐标。借助靶标平面与摄像机坐标系外部参数矩阵,求解激光光条特征点在对应摄像机坐标系中坐标。通过结构光基准平面内,不同摄像机坐标系中至少3组非共线特征点坐标信息,求解相邻摄像机外部参数。分别进行标定试验和精度验证试验,试验结果表明该方法切实可行。  相似文献   

20.
在由激光位移传感器组成的测量系统中,激光光束的方向是一个关键参数.方位角和俯仰角对于一条激光光束是最为重要的两个参数.本文中提出一种基于单目视觉的激光光束方向测量方法.首先,将CCD相机放置于基础平面上方,保持相机光轴与基础平面接近于垂直状态,并利用误差为10μm的圆孔型标定板建立单目定位模型.然后将激光光束发生装置放置在基础平面上并保持位置固定,同时在基础平面上放置特制靶块,使激光光束可以投射到靶块斜面上并形成一个激光光斑.在基础平面上方放置的CCD相机可以清晰的采集到激光光斑、靶块斜面的图像,应用相关算法提取出光斑质心的二维图像坐标.沿激光光束方向以相等间距移动靶块,通过CCD相机采集每移动一次靶块在当前位置下的光斑、靶块图像.利用相关的转换公式,结合靶块本身固有参数,将光斑质心图像二维坐标转换为基础平面下的空间三维坐标.由于靶块的移动,会得到靶块不同位置下激光光斑质心的三维坐标,将这些三维坐标拟合成空间直线表征待测激光光束.拟合直线得俯仰角即为待测激光光束的俯仰角.实验中,应用高精度仪器对靶块参数进行测定,并使用高精度标定板标定相机内外参数建立相应的定位模型.测量精度主要通过单目视觉定位精度、光斑重心提取精度来保证.结果显示,待测光束的俯角最大误差达到0.02°,光束间夹角的最大误差为0.04°.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号