首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 484 毫秒
1.
目的 RGB-D相机的外参数可以被用来将相机坐标系下的点云转换到世界坐标系的点云,可以应用在3维场景重建、3维测量、机器人、目标检测等领域。 一般的标定方法利用标定物(比如棋盘)对RGB-D彩色相机的外参标定,但并未利用深度信息,故很难简化标定过程,因此,若充分利用深度信息,则极大地简化外参标定的流程。基于彩色图的标定方法,其标定的对象是深度传感器,然而,RGB-D相机大部分则应用基于深度传感器,而基于深度信息的标定方法则可以直接标定深度传感器的姿势。方法 首先将深度图转化为相机坐标系下的3维点云,利用MELSAC方法自动检测3维点云中的平面,根据地平面与世界坐标系的约束关系,遍历并筛选平面,直至得到地平面,利用地平面与相机坐标系的空间关系,最终计算出相机的外参数,即相机坐标系内的点与世界坐标系内的点的转换矩阵。结果 实验以棋盘的外参标定方法为基准,处理从PrimeSense相机所采集的RGB-D视频流,结果表明,外参标定平均侧倾角误差为-1.14°,平均俯仰角误差为4.57°,平均相机高度误差为3.96 cm。结论 该方法通过自动检测地平面,准确估计出相机的外参数,具有很强的自动化,此外,算法具有较高地并行性,进行并行优化后,具有实时性,可应用于自动估计机器人姿势。  相似文献   

2.
目的 局部特征描述子在3维目标识别等任务中能够有效地克服噪声、不同点云分辨率、局部遮挡、点云散乱分布等因素的干扰,但是已有3维描述子难以在性能和效率之间取得平衡,为此提出LoVPE(局部多视点投影视图相关编码)特征描述子用于复杂场景中的3维目标识别。方法 首先构建局部参考坐标系,将世界坐标系下的局部表面变换至关键点局部参考坐标系下的局部表面;然后绕局部参考坐标系各坐标轴旋转K个角度获得多视点局部表面,将局部表面内的点投影至局部参考系各坐标平面内,投影平面分成N×N块,统计每块内投影点的散布信息生成特征描述向量;最后将各视点特征描述向量进行两两视图对相关编码得到低维度特征描述向量,采用ZCA(零项分量分析)白化降低特征描述向量各维间相关性得到LoVPE描述子。结果 在公用数据集上进行不同描述子对噪声、不同分辨率、遮挡及杂波等干扰鲁棒性的特征匹配实验,实验结果表明,提出的描述子特征匹配率与现有最佳描述子处于同等水平,但保持了较低的特征维度和较高的计算效率,维度降低约1半、特征构建及特征匹配时间缩短为现有最佳描述子的1/4。结论 提出一种新的3维局部特征描述子,具有强描述能力,对噪声、不同网格分辨率、遮挡及杂波等具有强鲁棒性,存储消耗较少且计算效率较高,该方法适用于模型点云及真实点云数据,可用于复杂场景中的3维目标识别。  相似文献   

3.
目的 真实物体的3维重建一直是计算机图形学、机器视觉等领域的研究热点。针对基于RGBD数据的非匀速非固定角度旋转物体的3维重建问题,提出一种利用旋转平台重建物体3维模型的配准方法。方法 首先通过Kinect采集位于旋转平台上目标物的深度数据和颜色数据,对齐融合并使用包围盒算法去除背景噪声和不需要的外部点云,获得带有颜色信息的点云数据。并使用基于标定物不同角度上的点云数据标定出旋转平台中心轴的位置,从而获得Kinect与旋转平台之间的相对关系;然后通过曲率特征对目标点云进行特征点提取并寻找与相邻点云的对应点;其中对于特征点的选取,首先针对点云中的任意一点利用kd-tree搜寻其k个邻近点,对这些点进行曲面拟合,进而计算其高斯曲率,将高斯曲率绝对值较大的n个点作为点云的特征点。n的取值由点云的点个数、点密度和复杂度决定,具体表现为能反映物体的大致轮廓或表面特征信息即可。对于对应点的选取,考虑到欧氏距离并不能较好反映点云中的点对在旋转过程中的对应关系,在实际配准中,往往会因为点云重叠或距离过远等原因找到大量错误的对应点。由于目标物在扫描过程中仅绕旋转轴进行旋转,因此采用圆弧最小距离寻找对应点可有效减少错误点对。随后,使用二分迭代寻找绕中心轴的最优旋转角度以满足点云间的匹配误差最小;最后,将任意角度获取的点云数据配准到统一的坐标系下并重建模型。结果 使用斯坦福大学点云数据库和自采集数据库分别对该方法和已有方法在算法效率和配准结果上进行对比实验,实验结果显示在拥有平均75 000个采样点的斯坦福大学点云数据库上与传统ICP算法和改进ICP算法相比,迭代次数分别平均减少86.5%、57.5%,算法运行时间分别平均减少87%、60.75%,欧氏距离误差平方和分别平均减少70%、22%;在具有平均57000个采样点的自采集点云数据库上与传统ICP算法和改进ICP算法相比,迭代次数分别平均减少94%、75%,算法运行时间分别平均减少92%、69%,欧氏距离误差平方和分别平均减少61.5%、30.6%;实验结果显示使用该方法进行点云配准效率较高且配准误差更小;和KinectFusion算法相比在纹理细节保留上也表现出较好的效果。结论 本文提出的基于旋转平台标定的点云配准算法,利用二分迭代算法能够有效降低算法复杂度。与典型ICP和改进的ICP算法的对比实验也表明了本文算法的有效性。另外,与其他方法在具有纹理的点云配准对比实验中也验证了本文配准方法的优越性。该方法仅采用单个Kinect即可实现对非匀速非固定角度旋转物体的3维建模,方便实用,适用于简单快速的3维重建应用场合。  相似文献   

4.
基于RGB-D深度相机的室内场景重建   总被引:1,自引:1,他引:0       下载免费PDF全文
目的 重建包含真实纹理的彩色场景3维模型是计算机视觉领域重要的研究课题之一,由于室内场景复杂、采样图像序列长且运动无规则,现有的3维重建算法存在重建尺度受限、局部细节重建效果差的等问题。方法 以RGBD-SLAM 算法为基础并提出了两方面的改进,一是将深度图中的平面信息加入帧间配准算法,提高了帧间配准算法的鲁棒性与精度;二是在截断符号距离函数(TSDF)体重建过程中,提出了一种指数权重函数,相比普通的权重函数能更好地减少相机深度畸变对重建的影响。结果 本文方法在相机姿态估计中带来了比RGBD-SLAM方法更好的结果,平均绝对路径误差减少1.3 cm,能取得到更好的重建效果。结论 本文方法有效地提高了相机姿态估计精度,可以应用于室内场景重建中。  相似文献   

5.
目的 鱼眼镜头是发展轻、小型全方位视觉系统的理想光学传感器,但由于镜头焦距短、视场大及光学原理约束,鱼眼图像存在严重畸变,为此提出一种高精度、应用方式灵活的鱼眼镜头内部参数标定方法,以期将鱼眼图像转换成符合人眼视觉习惯的平面透视投影图像。方法 从球面透视投影模型出发,首先分析给出空间直线在水平面上的理想投影椭圆约束,进而结合椭圆严格几何特性建立误差方程对鱼眼相机等效焦距f,纵横比A及径向畸变参数k1,k2进行最小二乘估计,最后利用估计参数对鱼眼图像进行立方盒展开实现平面透视纠正目的。结果 对某型号定焦鱼眼相机的棋盘格影像多视标定及网上鱼眼图像单视自标定结果表明,本文方法标定参数对鱼眼图像不同区域的平面透视纠正效果稳健、精度高。多视标定参数均方根误差(RMSE)约0.1像素,纠正影像上直线拟合误差RMSE约0.2像素,总体效果略优于对比文献方法;单视自标定参数误差RMSE约0.3像素,影像纠正范围、直线透视特性保持明显优于对比文献方法及商业软件DXO(DXO Optics Pro)。结论 本文方法标定参数少、计算过程简单且对标定参照物要求不高,对于具有大量直线的人工场景理论上可实现自标定,应用价值较高。  相似文献   

6.
目的 人脸2维图像反映出来的纹理并非是3维人脸曲面真实的纹理,并且受光照和妆容的影响很大,因此探索3维局部纹理特征对于人脸识别任务有着重要的意义。为此详细分析了一种新颖的3维局部纹理特征mesh-LBP对于人脸纹理的描述能力。方法 首先,在特征提取和识别任务之前,进行一系列的预处理:人脸分割、离群点移除和孔洞填补;接着,在预处理后的人脸曲面上,提取原始mesh-LBP特征,以及基于阈值化策略的3种改进特征:mesh-tLBP、mesh-MBP和mesh-LTP;然后,对于上述提取的4种特征,采用不同的统计方法,包括整体直方图、局部分块直方图和整体编码图像,用做人脸纹理的特征描述。最后,针对CASIA3D数据集中不同表情和姿态变化的人脸,采用余弦相似度进行人脸的识别任务。结果 通过对比人脸曲面和普通物体曲面的纹理特征,发现人脸纹理完全不同于普通纹理,不规则并且难以描述;通过对比mesh-LBP两种变体,发现mesh-LBP(α1)适用于姿态变化,而mesh-LBP(α2)适用于表情变化;通过对比原始mesh-LBP及其3种改进,发现mesh-tLBP对于人脸不同表情变化下的识别准确率最高有0.5%的提升;通过对比3种不同的统计方法,发现采用整体编码图像进行统计的特征尽管弱于局部分块直方图,但相比整体直方图,识别率在不同表情变化下最高有46.8%的提升。结论 mesh-LBP特征是一种优良的3维局部纹理特征,未来将会在3维医学处理、3维地形起伏检测以及3维人脸识别中得到更多的应用。  相似文献   

7.
目的 视线追踪是人机交互的辅助系统,针对传统的虹膜定位方法误判率高且耗时较长的问题,本文提出了一种基于人眼几何特征的视线追踪方法,以提高在2维环境下视线追踪的准确率。方法 首先通过人脸定位算法定位人脸位置,使用人脸特征点检测的特征点定位眼角点位置,通过眼角点计算出人眼的位置。直接使用虹膜中心定位算法的耗时较长,为了使虹膜中心定位的速度加快,先利用虹膜图片建立虹膜模板,然后利用虹膜模板检测出虹膜区域的位置,通过虹膜中心精定位算法定位虹膜中心的位置,最后提取出眼角点、虹膜中心点等信息,对点中包含的角度信息、距离信息进行提取,组合成眼动向量特征。使用神经网络模型进行分类,建立注视点映射关系,实现视线的追踪。通过图像的预处理对图像进行增强,之后提取到了相对的虹膜中心。提取到需要的特征点,建立相对稳定的几何特征代表眼动特征。结果 在普通的实验光照环境中,头部姿态固定的情况下,识别率最高达到98.9%,平均识别率达到95.74%。而当头部姿态在限制区域内发生变化时,仍能保持较高的识别率,平均识别率达到了90%以上。通过实验分析发现,在头部变化的限制区域内,本文方法具有良好的鲁棒性。结论 本文提出使用模板匹配与虹膜精定位相结合的方法来快速定位虹膜中心,利用神经网络来对视线落点进行映射,计算视线落点区域,实验证明本文方法具有较高的精度。  相似文献   

8.
目的 织物组织结构的3维几何模型是进行机织物的3维外观模拟和性能预测的基础。提出直接由组织结构参数建立机织物3维几何模型的方法。方法 根据构成机织物组织交织规律的浮长序列、交叉数、飞数、经纬纱循环数等参数,建立单层织物的组织图矩阵生成的数学公式;结合组织图矩阵和织物中纱线的屈曲模型,采用直线和余弦曲线分段函数建立组织矩阵中组织点间纱线路径的数学公式,并基于椭圆截面模型实现机织物的3维模拟;通过对经、纬纱的XY坐标函数中引入修正因子,实现纱线路径的扭曲变形。结果 实现不同组织类别、不同结构参数、不同纱线截面及基于均匀分布的纱线扭曲等条件下单层机织物的3维几何结构模拟,仿真效果较好。结论 本文方法将组织图矩阵生成和织物结构3维建模两个过程结合,快速生成单层机织物的3维几何模型。通过实时更改结构参数,实现不同结构织物的模拟,而且可以模拟经、纬纱平面外扭曲现象。  相似文献   

9.
目的 通过深度学习卷积神经网络进行3维目标检测的方法已取得巨大进展,但卷积神经网络提取的特征既缺乏不同区域特征的依赖关系,也缺乏不同通道特征的依赖关系,同时难以保证在无损空间分辨率的情况下扩大感受野。针对以上不足,提出了一种结合混合域注意力与空洞卷积的3维目标检测方法。方法 在输入层融入空间域注意力机制,变换输入信息的空间位置,保留需重点关注的区域特征;在网络中融入通道域注意力机制,提取特征的通道权重,获取关键通道特征;通过融合空间域与通道域注意力机制,对特征进行混合空间与通道的混合注意。在特征提取器的输出层融入结合空洞卷积与通道注意力机制的网络层,在不损失空间分辨率的情况下扩大感受野,根据不同感受野提取特征的通道权重后进行融合,得到全局感受野的关键通道特征;引入特征金字塔结构构建特征提取器,提取高分辨率的特征图,大幅提升网络的检测性能。运用基于二阶段的区域生成网络,回归定位更准确的3维目标框。结果 KITTI(A project of Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago)数据集中的实验结果表明,在物体被遮挡的程度由轻到高时,对测试集中的car类别,3维目标检测框的平均精度AP3D值分别为83.45%、74.29%、67.92%,鸟瞰视角2维目标检测框的平均精度APBEV值分别为89.61%、87.05%、79.69%; 对pedestrian和cyclist 类别,AP3DAPBEV值同样比其他方法的检测结果有一定优势。结论 本文提出的3维目标检测网络,一定程度上解决了3维检测任务中卷积神经网络提取的特征缺乏视觉注意力的问题,从而使3维目标检测更有效地运用于室外自动驾驶。  相似文献   

10.
传统的头戴式视线跟踪系统需要借助额外的头部位置跟踪器或其他辅助设备才能定位视线方向.针对该问题,提出一种基于标记点检测的注视点估计方法.该方法通过计算机视觉的方法检测标记点,建立场景图像与真实场景中计算机屏幕之间的空间关系,将场景图像中的注视点坐标映射到计算机屏幕中.实验结果表明,该方法简单易行,可以较好地估计出用户在...  相似文献   

11.
考生异常行为的监测容易使监考人员产生视觉疲劳。借鉴监考人员发现异常的过程,提出一种可用于考场异常行为分析的视线估计模型。为了减少图像中视线的信息损失,采用注视向量表示视线的大小和方向。该模型分为生成器、视线合成模块、鉴别器,先将考生头部图像输入生成器生成注视向量,再将头部位置和注视位置输入到合成模块得到真实注视向量。将头部图像与上述所得的两种向量输入鉴别器中,其生成对抗模式达到最优时,可得到生成真实值的生成器模型。实验结果表明,在多个考场环境中,该方法的性能优于所对比的几种方法。其中与Lian等人方法相比AUC(Area Under Curve)提高了2.6%,Ang(Angular error)和Dist(Euclidean distance)分别有效降低了20.3%和8.0%。  相似文献   

12.
3D gaze tracking from a single RGB camera is very challenging due to the lack of information in determining the accurate gaze target from a monocular RGB sequence. The eyes tend to occupy only a small portion of the video, and even small errors in estimated eye orientations can lead to very large errors in the triangulated gaze target. We overcome these difficulties with a novel lightweight eyeball calibration scheme that determines the user-specific visual axis, eyeball size and position in the head. Unlike the previous calibration techniques, we do not need the ground truth positions of the gaze points. In the online stage, gaze is tracked by a new gaze fitting algorithm, and refined by a 3D gaze regression method to correct for bias errors. Our regression is pre-trained on several individuals and works well for novel users. After the lightweight one-time user calibration, our method operates in real time. Experiments show that our technique achieves state-of-the-art accuracy in gaze angle estimation, and we demonstrate applications of 3D gaze target tracking and gaze retargeting to an animated 3D character.  相似文献   

13.
This paper describes the development of auto‐stereoscopic three‐dimensional (3D) display with an eye‐tracking system for not only the X‐axis (right–left) and Y‐axis (up–down) plane directions but also the Z‐axis (forward–backward) direction. In the past, the eye‐tracking 3D system for the XY‐axes plane directions that we had developed had a narrow 3D viewing space in the Z‐axis direction because of occurrence of 3D crosstalk variation on screen. The 3D crosstalk variation on screen was occurred when the viewer's eye position moved back and forth along the Z‐axis direction. The reason was that the liquid crystal (LC) barrier pitch was fixed and the LC barrier was able to control the only barrier aperture position. To solve this problem, we developed the LC barrier that is able to control the barrier pitch as well as the barrier aperture position in real time, corresponding to the viewer's eye position. As a result, the 3D viewing space has achieved to expand up to 320–1016 mm from the display surface in the Z‐axis direction and within a range of ±267 mm in the X‐axis direction. In terms of the Y‐axis direction, the viewing space is not necessary to be considered, because of a stripe‐shaped parallax barrier.  相似文献   

14.
Considering the main disadvantage of the existing gaze point estimation methods which restrict user’s head movement and have potential injury on eyes, we propose a gaze point estimation method based on facial normal and binocular vision. Firstly, we calibrate stereo cameras to determine the extrinsic and intrinsic parameters of the cameras; Secondly, face is quickly detected by Viola–Jones framework and the center position of the two irises can be located based on integro-differential operators; The two nostrils and mouth are detected based on the saturation difference and their 2D coordinates can be calculated; Thirdly, the 3D coordinates of these five points are obtained by stereo matching and 3D reconstruction; After that, a plane fitting algorithm based on least squares is adopted to get the approximate facial plane, then, the normal via the midpoint of the two pupils can be figured out; Finally, the point-of-gaze can be obtained by getting the intersection point of the facial normal and the computer screen. Experimental results confirm the accuracy and robustness of the proposed method.  相似文献   

15.
针对人体在大空间范围内自由运动时视线方向难以追踪的问题,构建了一套基于光学跟踪设备的头戴式视线追踪系统。系统通过被动式光学追踪设备和头戴式眼部摄像机获取使用者的头部运动状态与眼部图像,然后依据初始标定结果来估计使用者自由运动状态下的视线方向;最后对系统进行简化,得到了适用于同类环境、与具体硬件设备无关的视线跟踪三点三面三变换几何模型。对系统进行应用实验和误差分析表明,使用者在3.0 * 3.2 * 2.0 m的大工作空间内自由运动时视线追踪误差为1.69度,频率为20赫兹。  相似文献   

16.
提出了一种新的基于单幅眼睛图像的视线计算方法。通过假定两眼的视线向量以及左右虹膜中心点组成的向量共面,可以计算得到两眼的视线方向。与现有的三维视线计算方法相比,提出的视线计算方法不需要眼角坐标等脸部特征信息,另外也不需要已知相机的焦距大小。可以允许相机的焦距大小以及与用户的距离自由改变。最后实验的结果也比较理想,充分证明了提出的视线计算方法的可行性。  相似文献   

17.
Gaze positions can provide important cues for natural computer interfaces. In this paper, we describe a new gaze estimation method based on a three dimensional analysis of the human eye which can be used in head-mounted display (HMD) environments. This paper presents four advantages over previous works. First, in order to obtain accurate gaze positions, we used a virtual eyeball model based on the 3D characteristics of the human eyeball. Second, we calculated the 3D position of the virtual eyeball and gaze vector by using a camera and three collimated IR-LEDs. Third, three reference frames (the camera, the monitor and the eye reference frames) were unified, which simplified the complex 3D converting calculations and allowed for calculation of the 3D eye position and gaze position on a HMD monitor. Fourth, a simple user-dependent calibration method was proposed by gazing at one position based on Kappa compensation. Experimental results showed that the eye gaze estimation error of the proposed method was lower than 1°.
Eui Chul LeeEmail:
Kang Ryoung Park (Corresponding author)Email:
  相似文献   

18.
《Pattern recognition》2014,47(2):525-534
In this study, we develop a central profile-based 3D face pose estimation algorithm. The central profile is a unique curve on a 3D face surface that starts from forehead center, goes down through nose ridge, nose tip, mouth center, and ends at a chin tip. The points on the central profile are co-planar and belong to a symmetry plane that separates human face into two identical parts. The central profile is protrusive and has a certain length. Most importantly, the normal vectors of the central profile points are parallel to the symmetry plane. Based on the properties of the central profile, Hough transform is employed to determine the symmetry plane by invoking a voting procedure. An objective function is introduced in the parameter space to quantify the vote importance for face profile points and map the central profile to an accumulator cell with the maximal value. Subsequently, a nose model matching algorithm is used to detect nose tip on the central profile. A pitch angle estimation algorithm is also proposed. The pose estimation experiments completed for a synthetic 3D face model and the FRGC v2.0 3D database demonstrate the effectiveness of the proposed pose estimation algorithm. The obtained central profile detection rate is 99.9%, and the nose tip detection rate has reached 98.16% with error not larger than 10 mm.  相似文献   

19.
针对注视点研究中,红外光照明下双眼瞳孔运动的定位跟踪存在误差的问题,以双眼实时图像为研究对象,提出一种基于双眼同步运动特征约束的瞳孔跟踪算法.根据人类双眼在注视过程中的同步运动特征,把双眼瞳孔间距矢量作为隐式参数进行估计,简化包含左右眼位置、速度和双眼瞳孔间距的模型为统一的双眼同步跟踪模型,运用Kalman滤波器实现了运动特征估计和状态跟踪.实验采用自制的头戴式注视点传感装置进行眼部图像的采集.实验表明,该算法跟踪精度高,抗干扰能力强.相较于传统的以左右瞳孔位置与速度以及左右眼相对位置为状态量的算法,本文算法在位置跟踪和速度跟踪的鲁棒性上有明显改善,算法计算量也明显减少.另外,经过本文算法处理后的注视点位置估计精度大大提高,为注视点在人机交互领域中的进一步应用奠定了基础.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号