首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
庄曈  曾庆化  刘建业  董良 《计算机工程》2012,38(15):197-200
针对无人机在连续飞行过程中的姿态求取问题,提出一种基于单目视觉的微型无人机姿态算法。基于无人机摄像机获得序列图像,利用图像尺度不变特性变换获取特征点信息,结合对极几何约束关系,运用随机采样一致性原理求解载体位姿变换信息,从而获得载体的导航信息。实验结果表明,通过单目序列图像获得的姿态角度变化精度优于0.1°,在180°旋转情况下的误差累加值小于1°。  相似文献   

2.
在实际应用中,若图像中的动态特征数量多且运动方向一致,这些特征会对视觉里程计的估计结果产生严重的影响.本文针对这类问题提出一种根据图像特征点位置解耦估计摄像机旋转-平移的立体视觉里程计算法.算法通过立体视觉系统将特征点划分成"远点"和"近点".在随机抽样一致性算法(RANSAC)框架下,采用"远点"估计视觉系统的姿态;进而在姿态已知的条件下,通过"近点"估计摄像机平移,实现旋转-平移解耦计算.这样处理可以通过姿态约束减少近距离运动物体对视觉里程计的影响.实验表明,在实际道路环境中,本文基于旋转-平移解耦估计的算法较之传统的同时估计旋转-平移的算法,能有效剔除动态特征.所提出算法对动态特征的抗干扰能力更好,鲁棒性更强,精度更高.  相似文献   

3.
三维目标的姿态随视点变化而不同,选择适当角度范围的多尺度投影图像为代表,建立三维目标的完备特征库,能够提高基于图像的三维目标识别率。以目标为观察中心,基于3ds MAX提出一种多摄像机旋转批量渲染的三维目标视点空间投影方法。首先建立目标的三维模型,设置目标模型位置和顶视图摄像机位置,然后利用max层级命令面板锁定其中一个轴向的角度,以等采样间隔复制摄像机,设置半球面运动路径,并约束到相应摄像机,最后设置投影图像的输出参数并建立批处理脚本,实现三维目标视点空间任意投影图像的自动保存。  相似文献   

4.
为了提高多视图像配准的精度和一致性,考虑到各种不确定信息,提出了一个基于概率估计的多视图像配准方法。把各视点的位置姿态作为系统状态,构造系统增广模型和系统观测模型,运用增广卡尔曼滤波技术对各视点的位置姿态进行递归地估计,实现了精确的、全局一致的多视图像配准。实验对提出的配准方法进行了验证,结果表明提出的多视图像配准方法能够有效地处理不确定信息,配准结果是一致的和精确的。  相似文献   

5.
多平面多视点单应矩阵间的约束   总被引:4,自引:0,他引:4  
用代数方法系统地讨论了多平面多视点下单应矩阵间的约束关系.主要结论有(A)如 果视点间摄像机的运动为纯平移运动,则1)对于所有平面关于两视点间的单应矩阵的集合,或 单个平面关于所有视点的单应矩阵的集合的秩均等于4,2)对于多平面多视点的标准单应矩阵 的集合其秩仍等于4,3)根据以上结论可推出现有文献中关于"相对单应矩阵"约束的所有结 果;(B)如果视点间摄像机的运动为一般运动,则1)对于所有平面关于两个视点间的单应矩阵 集合的秩等于4的结论仍成立,2)对于其它情况其秩不再等于4而是等于9.  相似文献   

6.
人体定位一直是计算机视觉领域的热点课题之一,是人机交互的基础。提出多摄像机条件下的投影关系的两类几何约束,及基于几何约束的人体定位方法。人体定位算法的精度计算依赖于实验中人体在世界坐标系中精确位置的获取,而这一直是计算机视觉实验中的难点。本文提出基于虚拟数据的新的人体定位实验方法,可以方便准确地获取到人体在世界坐标系的位置。由于几何约束的完备性,定位过程中无需对摄像机的位置和姿态进行假设,也不需要限制人体在场景中的位置(遮挡关系)、行为等。采用虚拟数据与真实数据相结合,可以更准确地验证方法的精确度和适应性。实验结果表明,本文算法运行稳定且定位精度高。在定位结果的基础上,又进一步给出了人体在世界坐标系中的运动轨迹。  相似文献   

7.
光学头部姿态跟踪的多传感器数据融合研究   总被引:1,自引:0,他引:1  
罗斌  王涌天  刘越 《自动化学报》2010,36(9):1239-1249
精确的头部姿态跟踪是室内增强现实系统实现高精度注册的关键技术之一. 本文介绍了使用传感器数据融合原理实现高精度的光学头部姿态跟踪的新方法. 该方法使用多传感器数据融合中的扩展卡尔曼滤波器和融合滤波器, 将两个互补的单摄像机Inside-out跟踪和双摄像机Outside-in跟踪的头部姿态进行数据融合, 以减小光学跟踪传感器的姿态误差. 设计了一个典型实验装置验证所提出的算法, 实验结果显示, 在静态测试下的姿态输出误差与使用误差协方差传播法则计算得到的结果是一致的; 在动态跟踪条件下, 与单个Inside-out或Outside-in跟踪相比, 所提出的光学头部姿态数据融合算法能够使跟踪器获得精度更高、更稳定的位置和方向信息.  相似文献   

8.
已有的基于图像的人体与服装重构大都不考虑身体与衣物之间的交互,导致独立重构结果互相穿刺.本文提出一个二维碰撞感知的从单张图像重构人体与服装的优化方法,利用SMPL和TailorNet参数化模型来分别表示人体和衣服的三维形状,进而建立约束能量求解人体形状参数,运动参数和服装细节控制参数.我们的方法在初始化阶段对输入图像进行了语义分割以及二维关节点的估计,并采用human mesh recovery初步估计人体的形状与运动参数作为能量优化的初始值.我们的能量优化由两部分构成:其一是形状与姿态约束,利用图像中人体的关节位置和着装人体区域对三维参数化模型的投影的关节位置和投影区域进行约束,保证重建模型与图像在形状与姿态上的一致性;其二是人体与衣服的碰撞约束,引入重构人体与服装模型的二维投影区域间的误差对人体与衣服进行碰撞约束,以避免相互穿刺,考虑到基于投影的约束对视点敏感,我们在三维空间中进行视点采样,从而建立多视角的二维投影约束.考虑到能量中包含了TailorNet,不容易计算梯度,我们利用爬山法交替地对人体形状,姿态和服装尺寸参数进行优化求取最优解.最后,通过一系列实验对本文方法和最近的一...  相似文献   

9.
由于传统的六轴焊接机器人关节运动姿态规划方法存在关节运动姿态规划精度低、规划时间长的问题,提出基于视觉模型成像的六轴焊接机器人关节运动姿态规划方法.计算摄像机与机器人坐标关系,并通过图像雅克比矩阵,确定图像特征与机器人关系,在工作空间内把直线的始点与终点轨迹离散化,完成坐标转换,获取每个关节角度值,通过围绕焊接机器人各轴角度值确定欧拉角3个变量,利用欧拉角进行姿态规划,实现六轴焊接机器人关节运动姿态规划.实验结果表明,所提方法的六轴焊接机器人关节运动姿态规划精度较高,规划时间较短.  相似文献   

10.
提出一种基于旋转摄像机拍摄的物体运动轨迹测量方法。该方法采用旋转摄像机跟踪拍摄运动物体,通过摄像机标定技术建立图像平面与物体运动平面的对应关系,完成对物体运动轨迹的测量。该测量方法解决了单台摄像机拍摄范围和拍摄精度的约束,与多摄像机协同拍摄相比,需要的测量设备少,容易操作,对场地的适应能力强。  相似文献   

11.
针对相机在未知环境中定位及其周围环境地图重建的问题,本文基于拉普拉斯分布提出了一种快速精确的双目视觉里程计算法.在使用光流构建数据关联时结合使用三个策略:平滑的运动约束、环形匹配以及视差一致性检测来剔除错误的关联以提高数据关联的精确性,并在此基础上筛选稳定的特征点.本文单独估计相机的旋转与平移.假设相机旋转、三维空间点以及相机平移的误差都服从拉普拉斯分布,在此假设下优化得到最优的相机位姿估计与三维空间点位置.在KITTI和New Tsukuba数据集上的实验结果表明,本文算法能快速精确地估计相机位姿与三维空间点的位置.  相似文献   

12.
A candidate pose algorithm is described which computes object pose from an assumed correspondence between a pair of 2D image points and a pair of 3D model points. By computing many pose candidates actual object pose can usually be determined by detecting a cluster in the space of all candidates. Cluster space can receive candidate pose parameters from independent computations in different camera views. It is shown that use of of geometric constraint can be sufficient for reliable pose detection, but use of other knowledge, such as edge presence and type, can be easily added for increased efficiency.  相似文献   

13.
尹磊    彭建盛    江国来    欧勇盛 《集成技术》2019,8(2):11-22
激光雷达和视觉传感是目前两种主要的服务机器人定位与导航技术,但现有的低成本激光雷 达定位精度较低且无法实现大范围闭环检测,而单独采用视觉手段构建的特征地图又不适用于导航应用。因此,该文以配备低成本激光雷达与视觉传感器的室内机器人为研究对象,提出了一种激光和视觉相结合的定位与导航建图方法:通过融合激光点云数据与图像特征点数据,采用基于稀疏姿态调整的优化方法,对机器人位姿进行优化。同时,采用基于视觉特征的词袋模型进行闭环检测,并进一步优化基于激光点云的栅格地图。真实场景下的实验结果表明,相比于单一的激光或视觉定位建图方 法,基于多传感器数据融合的方法定位精度更高,并有效地解决了闭环检测问题。  相似文献   

14.
由空间几何信息(如点、线)与其图像元素间的对应关系来确定摄像机的外参数(位置和方向),即姿态估计问题,是计算机视觉、摄影测量学等的主要研究问题之一。在针孔摄像机模型下,利用对偶数这一数学工具把基于点的姿态估计算法推广到基于线的姿态估计算法,使得点、线姿态估计算法得到了统一。与已有的基于线的姿态估计算法区别在于,并未利用空间线或图像线上孤立的点的信息,而是线的整体信息,这就避免了点对应问题以及由此带来的误差等问题。大量的模拟实验和真实实验验证了方法的可行性和有效性。  相似文献   

15.
以单目视觉中双视图定位为基础,提出了一种基于单目视频路径的导航方法.算法基于单目摄像机提取一组有序的关键图像,以代表视频路径,使用Harris角点算法提取图像特征点,利用零均值归一化互相关算法进行图像匹配,根据单目摄像机双视图匹配点之间的约束关系求出基础矩阵并优化,得到位姿参数,完成了移动机器人定位,使其在视频路径的指导下实现自主导航.验证表明:方法在室外环境中具有较好的实用性.  相似文献   

16.
17.
目的 针对对应点个数大于等于6的摄像机位姿估计问题,提出一种既适用于已标定也适用于未标定摄像机的时间复杂度为 的高精度快速算法。 方法 首先选取四个非共面虚拟控制点,并根据空间点和虚拟控制点的空间关系以及空间点的图像建立线性方程组,以此求解虚拟控制点的图像坐标及摄像机内参,再由POSIT算法根据虚拟控制点及其图像坐标求解旋转矩阵和平移向量。 结果 模拟数据实验和真实图像实验表明该算法时间复杂度和计算精度均优于现有的已标定摄像机位姿的高精度快速求解算法EPnP。 结论 该算法能够同时估计摄像机内外参数,而且比现有算法具有更好的速度和精度。  相似文献   

18.
当前三维重建系统大多基于特征点法和直接法的同时定位与地图重建(SLAM)系统,特征点法SLAM难以在特征点缺失的地方具有较好的重建结果,直接法SLAM在相机运动过快时难以进行位姿估计,从而造成重建效果不理想.针对上述问题,文中提出基于半直接法SLAM的大场景稠密三维重建系统.通过深度相机(RGB-D相机)扫描,在特征点丰富的区域使用特征点法进行相机位姿估计,在特征点缺失区域使用直接法进行位姿估计,减小光度误差,优化相机位姿.然后使用优化后较准确的相机位姿进行地图构建,采用面元模型,应用构建变形图的方法进行点云的位姿估计和融合,最终获得较理想的三维重建模型.实验表明,文中系统可适用于各个场合的三维重建,得到较理想的三维重建模型.  相似文献   

19.
In this paper, we introduce a method to estimate the object’s pose from multiple cameras. We focus on direct estimation of the 3D object pose from 2D image sequences. Scale-Invariant Feature Transform (SIFT) is used to extract corresponding feature points from adjacent images in the video sequence. We first demonstrate that centralized pose estimation from the collection of corresponding feature points in the 2D images from all cameras can be obtained as a solution to a generalized Sylvester’s equation. We subsequently derive a distributed solution to pose estimation from multiple cameras and show that it is equivalent to the solution of the centralized pose estimation based on Sylvester’s equation. Specifically, we rely on collaboration among the multiple cameras to provide an iterative refinement of the independent solution to pose estimation obtained for each camera based on Sylvester’s equation. The proposed approach to pose estimation from multiple cameras relies on all of the information available from all cameras to obtain an estimate at each camera even when the image features are not visible to some of the cameras. The resulting pose estimation technique is therefore robust to occlusion and sensor errors from specific camera views. Moreover, the proposed approach does not require matching feature points among images from different camera views nor does it demand reconstruction of 3D points. Furthermore, the computational complexity of the proposed solution grows linearly with the number of cameras. Finally, computer simulation experiments demonstrate the accuracy and speed of our approach to pose estimation from multiple cameras.  相似文献   

20.
《Graphical Models》2008,70(4):57-75
This paper studies the inside looking out camera pose estimation for the virtual studio. The camera pose estimation process, the process of estimating a camera’s extrinsic parameters, is based on closed-form geometrical approaches which use the benefit of simple corner detection of 3D cubic-like virtual studio landmarks. We first look at the effective parameters of the camera pose estimation process for the virtual studio. Our studies include all characteristic landmark parameters like landmark lengths, landmark corner angles and their installation position errors and some camera parameters like lens focal length and CCD resolution. Through computer simulation we investigate and analyze all these parameters’ efficiency in camera extrinsic parameters, including camera rotation and position matrixes. Based on this work, we found that the camera translation vector is affected more than other camera extrinsic parameters because of the noise of effective camera pose estimation parameters. Therefore, we present a novel iterative geometrical noise cancellation method for the closed-form camera pose estimation process. This is based on the collinearity theory that reduces the estimation error of the camera translation vector, which plays a major role in camera extrinsic parameters estimation errors. To validate our method, we test it in a complete virtual studio simulation. Our simulation results show that they are in the same order as those of some commercial systems, such as the BBC and InterSense IS-1200 VisTracker.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号