首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
针对现有的超声波手势识别方法易受用户误操作手势的影响,难以对识别错误的手势进行实时修正等问题,提出一种融合情境感知信息的手势识别方法.首先通过对手势信号进行时频分析提取有效的手势特征,构建基于超限学习机算法的手势识别模型,并利用softmax函数将手势识别结果映射为手势的置信度;然后通过自定义的概率转化函数将情境信息转化为手势的情境置信度;最后融合手势的置信度和情境置信度,以利用情境感知结果过滤用户的误操作手势,修正识别错误的手势,输出符合用户意图的手势识别结果.将文中方法应用于超声波手势识别的实验结果表明,该方法的识别准确率能够达到94.7%,比无情境信息的超声波手势识别方法提高33.2%.  相似文献   

2.
基于Petri网和BPNN的多重触控手势识别   总被引:1,自引:0,他引:1  
为解决多重触控技术的手势识别问题,提出一个多重触控手势描述与识别框架,给出其描述和识别方法。多重触控手势可分为原子手势和组合手势,在手势描述过程中,利用BP网络对原子手势进行建模,然后在将用户的意图映射为原子手势逻辑、时序和空间关系关联而成的组合手势,并在Petri网引入逻辑、时序和空间关系描述符对组合手势进行描述。在手势识别过程中,根据BP网络分类器检测出原子手势,并触发组合手势Petri网模型的转移,实现组合手势的识别。实验结果表明该方法对不同用户操作习惯有鲁棒性,能有效解决多重触控手势识别问题。  相似文献   

3.
针对当前的WiFi手势识别技术对手势估计不准确、受噪声影响较大和特征提取不充分等问题,文章提出了一种基于菲涅耳区和深度学习的识别方法.该方法主要分为3个阶段:模型搭建、数据预处理和手势分类.模型搭建阶段通过菲涅耳区定量了手势运动与信号波动模式之间的精确关联,进而确保了对手势的精准估计;数据预处理阶段通过天线之间的商模型、离散傅里叶变换、Hampel滤波器和离散小波变换进行平滑滤波处理,保证了振幅和相位信息的质量;手势分类阶段利用建立的深度神经网络模型,从所有链路的子载波信息中自动提取并筛选出时空域特征,最后用Softmax函数实现手势识别.实验证明,该方法能够达到96%的识别准确率,在不同的实验环境下具有较高的鲁棒性.  相似文献   

4.
首先采用基于混合高斯模型与椭圆肤色模型进行手势分割,分割出手势区域,使用卡尔曼滤波器进行手势跟踪,获得手势中心点的位置.在此基础上,记录各帧中心点位置,得到运动轨迹,利用提出的轨迹模板匹配方法对动态手势进行识别.该方法利用基本的几何特征便可完成手势运动轨迹的设置与识别,无需特征选择或训练样本的搜集.最后,采用基于Zynq-7000的Zedboard平台对该算法进行实现,并采用HLS硬件加速工具进行算法加速.实验结果表明,该算法可实现较精确的手势识别,接受弹性的输入采样,识别正确率在95%以上,且通过硬件加速后,可在嵌入式平台中实时识别,具有较好的实时性.  相似文献   

5.
搭载着加速度传感器的智能移动终端为手势识别提供广泛的应用平台,在已有的基于单枚加速度传感器的手势识别研究中,识别正确率、速度和手势集合难以达到良好的平衡。本文以一种基于加速度符号序列的识别算法为基础,改进了其特征提取方法,并设计了基于加权树结构模板库的匹配方法,实现了大手势集、高正确率、速度快的手势识别。实验表明,所述系统在21个手势组成的手势集合上,实现了95.2%的用户依赖识别率和94.6%的用户非依赖识别率,识别时间小于10毫秒,对手势识别研究有一定的借鉴价值。  相似文献   

6.
为了提高基于加速度传感器的动态手势识别算法的性能,并且增强系统的可扩展性,提出了一种有效结合机器学习模型与模板匹配的方法.将手势分为基本手势和复杂手势两大类,其中复杂手势可分割为基本手势组成的序列;根据手势运动的特点提取有效的特征量,并利用基本手势样本训练随机森林模型,然后用其对基本手势序列进行分类预测;将预测结果进行约翰逊编码,再与标准模板序列进行相似度匹配.实验结果表明,该方法获得了99.75%的基本手势识别率以及100%的复杂手势识别率.算法既保证了手势识别的精度,也提高了系统的可扩展性.  相似文献   

7.
刘蓉  刘明 《计算机工程》2011,37(24):141-143
针对手势交互中手势信号的相似性和不稳定性,设计实现一种基于三轴加速度传感器的手势识别方案。采用MMA7260加速度传感器采集主手腕的手势动作信号,根据手势加速度信号的特点,进行手势动作数据窗口的自动检测、信号去噪和重采样等预处理,通过提取手势动作的关键特征,构造离散隐马尔可夫模型,实现手势动作识别。实验结果证明该方案的识别精度较高。  相似文献   

8.
基于视觉的手势界面关键技术研究   总被引:1,自引:0,他引:1  
针对视觉手势界面存在的问题,提出了一套行之有效的解决方案.首先,为了解决视觉手势交互中的MidasTouch问题,以人类注意的信息加工模型为理论依据提出了一个可扩展的视觉手势交互模型,该模型将手势交互过程分为选择性处理、分配性处理和集中处理3个不同阶段;然后,基于该模型提出了一个视觉手势识别框架,并结合认知心理学从手势检测、跟踪和识别3个方面对该框架的各个组成模块的关键技术进行了阐述,其中手势检测模块和识别管理模块能够辅助系统在复杂的背景中滤除掉不相关信息而选择性地搜索人手并根据上下文信息对手势识别任务重定向,从而避免了系统时刻都处于激活状态并对所有的手势动作都进行识别分析,有效解决了Midas Touch问题.文中介绍了使用该方法实现的IEToolkit手势界面工具平台,并基于一个视觉手势交互系统进行了实验测试与评估,结果验证了文中方法的可用性.  相似文献   

9.
研究基于手势识别技术的鼠标操控方法,并将其应用“星际飞行大战”游戏中。通过使用深度学习模型进行手势识别,将用户的手势转化为鼠标的移动和点击操作。利用Python编程语言和开源库进行实现,并通过测试验证了该方法的准确性和可行性。结果表明,基于手势识别技术的鼠标操控方法可以有效地提高玩家的游戏体验和操作精度。未来,该方法还可以被应用于更广泛的应用场景。  相似文献   

10.
运动传感驱动的3D直观手势交互   总被引:2,自引:1,他引:2  
为了使手势交互方式较少受到场地和光线的限制,提出利用加速度传感器作为输入设备进行手势识别的方法.对每种手势只要求用户做一次示范表演,通过添加噪声等手段来提高训练数据生成的自动化程度;将训练数据经过预处理和特征提取之后用于训练机器学习模型(隐马尔科夫模型和支持向量机).在包含70种手势的测试集上进行实验,平均识别率超过90%;并开发了幻灯片手势控制和手势拨号2个基于手势的人机交互原型系统,结果表明文中方法能够显著地提升用户在人机交互中的体验.  相似文献   

11.
针对概念草图的输入输出问题,采用了基于草绘输入的交互式图形设计方法,实现了单笔划草绘轨迹主动分段识别与规整方法;运用了基于笔式手势的草图编辑方法,并将概念草图以DXF的格式输出,实现与现有CAD系统之间的集成.根据手势设计原则以及草图编辑的需要,定义并实现了选择、删除、移动等10种手势,同时采用感知器线性分类方法对手势进行识别.实例表明:手势编辑模式能够改善传统编辑方式在自然性与智能性方面的不足.  相似文献   

12.
基于手势和草图的概念设计协同交互的研究   总被引:3,自引:0,他引:3  
基于手势和草图的交互模式提供了一种自然和谐的方式来支持概念设计协同操作,促进协同工作系统的发展与应用.基于以用户为中心的设计,比较了不同方式的概念设计过程,提出了基于手势和草图的协同设计方法,进一步讨论了以草图为设计过程中的信息载体,分析了草图信息模型;基于手势操作,提出了协同上下文感知的概念和协同设计上下文描述模型;最后分析并给出面向同步编辑的草图交互设计和双向约束求解方法.所提出的协同设计方法自然简便,提高了设计效率,改善了人机交互方式.  相似文献   

13.
基于笔序的手绘草图识别方法   总被引:4,自引:0,他引:4  
本文提出了一种基于用户绘图过程笔序信息的手绘草图识别方法,该方法利用同一用户绘制同一草图的笔序趋向于一致这一特点,在收集用户绘图笔序信息的基础上建立用户模型,从而达到提高输入自由度和识别效率的目的,并用实验加以了证明。  相似文献   

14.
联机草绘设计作为一种自然、高效的人机交互方式,继承了传统纸笔草绘设计的优点,弥补了现有CAD软件在处理模糊、不精确信息方面的不足,并日益受到人们的关注。针对联机草绘图形的编辑修改,设计出一套简单、快捷的编辑手势.并采用模式匹配的方法对其进行识别。实验结果表明,提出的方法具有较高的识别效果,加快了概念草图的设计过程。  相似文献   

15.
联机草绘设计作为一种自然、高效的人机交互方式,继承了传统纸笔草绘设计的优点,弥补了现有CAD软件在处理模糊、不精确信息方面的不足,并日益受到人们的关注。针对联机草绘图形的编辑修改,设计出一套简单、快捷的编辑手势,并采用模式匹配的方法对其进行识别。实验结果表明,提出的方法具有较高的识别效果,加快了概念草图的设计过程。  相似文献   

16.
研究一种基于手绘草图进行三维建模的方法。将用户界面分为手势区、轮廓区、控制区、信息提示区等。根据手势区输入的手势以及控制区输入的控制信息,对轮廓区输入的二维信息构建三维模型。采用模板匹配的方法识别用户手势,采用容差环的方法识别用户输入的物体轮廓,根据生成的三维数据之间的分层信息构建物体表面三角网格,对物体进行三维建模。  相似文献   

17.
在线草图识别中用户手绘习惯建模方法   总被引:5,自引:0,他引:5  
手绘草图是概念设计和思路外化的一种高效的表达方式。用户绘制草图时存在的多种形式,及其随意性和模糊性使得用户适应性问题逐渐成为草图识别的核心课题。本文提出了一种在线草图识别的用户建模方法来捕捉绘制草图时的用户习惯,主要包括两个方面的内容:一是基于SVM的主动式增量学习方法,二是基于动态用户建模的手绘复杂图形的识别方法。前者与传统的增量式学习方法相比,在识别精度相同的情况下所需的训练时间和训练数据集要少得多。后者则是基于笔划信息以及笔划间的顺序和空间关系信息,采用增量式决策树捕捉用户的输入习惯和过程信息。实验证明了本文方法在在线草图识别中的有效性和高效性。  相似文献   

18.
A gesture-based interaction system for smart homes is a part of a complex cyber-physical environment, for which researchers and developers need to address major challenges in providing personalized gesture interactions. However, current research efforts have not tackled the problem of personalized gesture recognition that often involves user identification. To address this problem, we propose in this work a new event-driven service-oriented framework called gesture services for cyber-physical environments (GS-CPE) that extends the architecture of our previous work gesture profile for web services (GPWS). To provide user identification functionality, GS-CPE introduces a two-phase cascading gesture password recognition algorithm for gesture-based user identification using a two-phase cascading classifier with the hidden Markov model and the Golden Section Search, which achieves an accuracy rate of 96.2% with a small training dataset. To support personalized gesture interaction, an enhanced version of the Dynamic Time Warping algorithm with multiple gestural input sources and dynamic template adaptation support is implemented. Our experimental results demonstrate the performance of the algorithm can achieve an average accuracy rate of 98.5% in practical scenarios. Comparison results reveal that GS-CPE has faster response time and higher accuracy rate than other gesture interaction systems designed for smart-home environments.  相似文献   

19.
用户适应性是在线手绘草图识别的一个关键问题。本文以实现草图识别的自适应性为目标,对草图识别中的用户适应性问题进行了深入的研究和实验,提出了一种自适应草图识别解决方法,并针对在线草图识别的特点,提出了一种基于笔划曲率,速率以及整体几何特性的组合特征。本文重点研究并实现了基于自适应HMM的草图识别,在已有HMM的基础上,针对在线草图识别的特点,提出了状态数可变自适应HMM的学习方法。实验表明本文所提出的方法具有很好的效果。  相似文献   

20.
Machine learning is a technique for analyzing data that aids the construction of mathematical models. Because of the growth of the Internet of Things (IoT) and wearable sensor devices, gesture interfaces are becoming a more natural and expedient human-machine interaction method. This type of artificial intelligence that requires minimal or no direct human intervention in decision-making is predicated on the ability of intelligent systems to self-train and detect patterns. The rise of touch-free applications and the number of deaf people have increased the significance of hand gesture recognition. Potential applications of hand gesture recognition research span from online gaming to surgical robotics. The location of the hands, the alignment of the fingers, and the hand-to-body posture are the fundamental components of hierarchical emotions in gestures. Linguistic gestures may be difficult to distinguish from nonsensical motions in the field of gesture recognition. Linguistic gestures may be difficult to distinguish from nonsensical motions in the field of gesture recognition. In this scenario, it may be difficult to overcome segmentation uncertainty caused by accidental hand motions or trembling. When a user performs the same dynamic gesture, the hand shapes and speeds of each user, as well as those often generated by the same user, vary. A machine-learning-based Gesture Recognition Framework (ML-GRF) for recognizing the beginning and end of a gesture sequence in a continuous stream of data is suggested to solve the problem of distinguishing between meaningful dynamic gestures and scattered generation. We have recommended using a similarity matching-based gesture classification approach to reduce the overall computing cost associated with identifying actions, and we have shown how an efficient feature extraction method can be used to reduce the thousands of single gesture information to four binary digit gesture codes. The findings from the simulation support the accuracy, precision, gesture recognition, sensitivity, and efficiency rates. The Machine Learning-based Gesture Recognition Framework (ML-GRF) had an accuracy rate of 98.97%, a precision rate of 97.65%, a gesture recognition rate of 98.04%, a sensitivity rate of 96.99%, and an efficiency rate of 95.12%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号