首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 203 毫秒
1.
设计了一种基于Kinect深度信息和双阈值分割的运动手势识别算法。结合OpenCV和OpenNI,在vs2010环境下实现了该算法。利用Kinect的深度摄像头获取深度图像;对该图像进行双阈值分割,获取手部图像;再对手部图像进行形态学处理,获取完整的手形;最后,利用OpenNI的手势生成器GestureGenerator对手势进行跟踪识别。利用深度图像进行手势识别,通过双阈值分割,不仅去除了背景干扰,也能去除一部分前景干扰。用不同颜色点、圆和线的形式表示各种手势,可以清晰地实时显示识别效果。  相似文献   

2.
针对移动机器人室内环境检测问题,提出了一种基于Kinect传感器的目标物体检测方法.利用Kinect传感器采集的视频图像和深度数据来实现对机器人工作环境中已知特征目标物体和完全未知目标物体的检测及定位.对于已知特征目标通过颜色特征分析来完成检测,而对于完全未知的物体则通过深度地面消除算法和提取深度图像的轮廓来进行检测.利用传感器成像模型对检测出的目标区域进行三维空间定位,从而获取目标物相对于机器人的空间位置信息.基于移动机器人平台进行实验,结果表明,该方法能够有效地实现室内环境信息的检测及定位.  相似文献   

3.
针对场景的光照变化和遮挡、混响等因素对目标定位准确性和鲁棒性的影响,提出了一种基于Kinect音视频融合的目标定位方法.在获取场景的颜色、深度和声源定位信息后,首先利用获取的深度信息剔除背景信息,然后分别对颜色、深度和声源定位的模型计算似然函数,最后融合上述3种似然函数,并在粒子滤波框架下实现目标定位.实验结果表明,音视频信息融合的目标定位平均准确率达到90.7%,相比于同一场景下独立使用视频和音频定位的准确率分别提高了9.1%和16.9%.  相似文献   

4.
大多数人体跟踪算法鲁棒性不高的主要原因是对人体的颜色特征进行跟踪,针对此问题设计了基于Kinect深度信息的人体运动跟踪算法。通过分析Kinect获取的深度图信息来对人体轮廓进行区分判定,提取前景目标区域以及计算目标区域的深度直方图。通过对深度直方图进行分析去除背景区域部分,根据获取的深度直方图求取跟踪图像的深度反向投影;最后结合Camshift算法确定当前选取目标区域的尺寸和中心位置来进行对人体的实时跟踪。实验结果表明,该算法提取的目标特征具有较强的鲁棒性,避免了光照变化和背景相似情况下的不稳定问题,能实现复杂场景下的人体目标跟踪。  相似文献   

5.
为实现操作人员与配电作业机器人的自然交互,提出一种基于Kinect手势识别的配电作业机器人智能人机交互方法。通过Kinect的深度信息及骨骼信息对操作人员的手势进行分割,选取几何不变矩Hu矩作为手势特征,采用支持向量机(support vector machine, SVM)的机器学习方法分类识别操作人员的手势。将手势映射为机器人的运动,通过手势对机器人进行运动控制。试验结果验证了本研究所提的配电作业机器人智能人机交互方法的可行性。  相似文献   

6.
针对交通标志识别算法识别精度低、计算复杂度高等问题,提出一种采用组合矩特征分类交通标志的方法。首先对图像进行预处理,并基于颜色特征分割,再采用形态学的方法处理粗分割图像,从而提取目标区域。然后分别提取标志图像的Legendre矩及小波矩特征,利用串行特征融合技术获取组合优化特征,将特征值输入渐进直推式支持向量机,并采用模拟退火算法对其进行参数优化,最后使用优化后的识别算法实现目标图像的识别。仿真结果表明,与现有的其他交通标志识别算法相比,采用组合矩与优化后渐进直推式支持向量机的识别方法有更好的识别效果。  相似文献   

7.
基于边缘检测的Kinect深度图像去噪算法   总被引:2,自引:0,他引:2  
Kinect实时提取的深度图像映射得到的彩色图像以及目标背景分离图像边缘存在明显锯齿,且图像噪声大,质量较差。对此提出一种针对Kinect深度图像去噪算法。运用基于Prewitt算子的分块自适应阈值边缘检测算法可得到比较精细的图像边缘;进而根据获取边缘信息对深度图像进行分类,边缘区采用单向多级中值滤波算法进行降噪处理,而非边缘区采用双向多级中值滤波算法进行降噪处理。最终利用Kinect得到边缘清晰,噪声较小的高质量深度图像,实验证明了算法的有效性。  相似文献   

8.
基于深度信息的动态手势识别算法   总被引:1,自引:1,他引:0  
针对目前手势识别方法计算复杂、特征量提取不可靠等问题,提出基于Kinect传感器深度信息快速动态手势识别算法。通过Kinect的深度摄像头获取深度图像,利用阈值分割法对深度图像进行预处理;结合深度信息,利用OpenCV函数库来提取前景;选用动态时间规整(dynamic time warping)算法计算测试行为模板与参考行为模板之间的相似度以实现样本的分类;最终结合OpenNI和OpenCV,在VS2010环境下实现了该算法。与其他算法相比,该算法改进动态手势特征的提取方法和分类过程,能够快速跟踪手部,有效分割手势。实验结果表明,本方法对具有时空特性的动态手势有很高的识别率,在不同光照和复杂背景下具有较好的鲁棒性。  相似文献   

9.
为了实现手语视频中手语字母的准确识别,提出一种基于DI_CamShift(depth image CamShift)和手语视觉单词(sign language visual word,SLVW)特征结合的算法.首先,采用Kinect获取手语字母手势视频及其深度信息;其次,通过计算获得深度图像中手语手势的主轴方向角和质心位置,计算搜索窗口对手势跟踪;再次,使用基于深度积分图像的大津法(OTSU)分割手势并提取其尺寸不变特征转换(scale invariant feature transform,SIFT)特征和Gabor特征,并通过典型相关分析(canonical correlation analysis,CCA)方法进行特征融合;最后,构建SLVW词包并用支持向量机(support vector machine,SVM)进行识别,单个手语字母最高识别率为99.89%,平均识别率为96.34%.  相似文献   

10.
目标定位是仿人机器人实现抓取操作的前提。针对机器人单目视觉容易丢失深度信息,双目视觉难以对缺乏纹理特征的物体获得有效深度信息的问题,提供一种基于Kinect的仿人机器人抓取目标定位系统。首先建立Kinect和机器人坐标系,构建布尔沙坐标转换模型;然后利用线性总体最小二乘(LTLS)算法求解该模型;最后依据Kinect获取的抓取点坐标信息,通过坐标转换将其转换到机器人坐标系:从而实现机器人对目标物体的定位。在仿人机器人NAO平台上对该系统进行实验验证,其结果表明:利用该方法,机器人在一定空间范围内能够可靠的定位目标物体,并且较其单目视觉定位更准确;根据所提供的目标定位系统,NAO机器人实现了对不同物体的抓取操作。  相似文献   

11.
在人类交互行为识别领域,基于RGB视频的局部特征往往不能有效区分近似动作,将深度图像(Depth)与彩色图像(RGB)在识别过程中进行融合,提出一种融合Depth信息的整体和个体分割融合的双人交互行为识别算法。该算法首先分别对RGB和Depth视频进行兴趣点提取,在RGB视频上采用3DSIFT进行特征描述,在Depth视频上利用YOLO网络对左右两人兴趣点进行划分,并使用视觉共生矩阵对局部关联信息进行描述。最后使用最近邻分类器分别对RGB特征和Depth特征进行分类识别,进一步通过决策级融合两者识别结果,提高识别准确率。结果表明,结合深度视觉共生矩阵可以大大提高双人交互行为识别准确率,对于SBU Kinect interaction数据库中的动作可以达90%的正确识别率,验证了所提算法的有效性。  相似文献   

12.
在人机交互领域中,人手的位置信息往往直接用于交互指令的解读与交互结果的计算,因此高精度的实时人手位置检测是实现非接触式的、自然的人机交互的重要基础.针对Kinect 2.0追踪人体骨骼点获取的三维坐标数据的波动和误差较大的问题,本文提出了基于相关点均值处理的人手位置检测算法.该算法基于深度信息,以手腕为分割阈值点,进行...  相似文献   

13.
在Kinect相机和二维激光雷达结合的基础上,提出了一种适用于移动机器人、低成本的障碍物三维感知方法。该方法首先通过Kinect相机和二维激光雷达联合标定建立深度图像点与激光雷达测距点的对应关系,然后,融合二者的检测数据得到环境障碍物位置。具体步骤为:1)Kinect相机与二维激光雷达分别从环境中获取深度图像和二维激光数据;2)将深度图像转换成虚拟二维激光数据;3)根据联合标定得到的对应关系融合虚拟激光数据与二维激光雷达数据,得到障碍物的位置。实物测试证明该方法正确有效,可用于移动机器人对环境障碍物的判断。  相似文献   

14.
传统RGB图像容易受到光照、姿态、遮挡等因素的影响,深度信息的研究为计算机视觉的发展提供了新思路。该文首先研究了Kinect深度图像成像原理,仿真分析了深度图像的性质及其分割优势,并在Ubuntul2.04系统下基于openCV设计了利用深度信息实现快速目标检测与分割的系统。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号