首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
多层DGMM识别器在中国手语识别中的应用   总被引:4,自引:0,他引:4  
吴江琴  高文  陈熙霖  马继涌 《软件学报》2000,11(11):1430-1439
手语是聋人使用的语言,是由手形动作辅之以表情姿势由符号构成的比较稳定的表达系统 ,是一种靠动作/视觉交际的语言.手语识别的研究目标是让机器“看懂”聋人的语言.手 语识别和手语合成相结合,构成一个“人-机手语翻译系统”,便于聋人与周围环境的交 流.手语识别问题是动态手势信号即手语信号的识别问题.考虑到系统的实时性及识别效率, 该系统选取Cyberglove型号数据手套作为手语输入设备,采用DGMM(dynamic Gaussian mixt ure model)作为系统的识别技术,并根据中国手语的具体特点,在识别模块中选取了多层识 别器,可识别中国手语字典中的274个词条,识别率为97.4%.与基于单个DGMM的识别系统比 较,这种模型的识别精度与单个DGMM模型的识别精度基本相同,但其识别速度比单个DGMM的 识别速度有明显的提高.  相似文献   

2.
面向大词汇量的实时连续中国手语识别系统   总被引:1,自引:0,他引:1  
目前手语识别研究的难点之一在于如何实现大词汇量的连续语句识别,针对这个问题,该文提出了几个有效的方法,包括修正转移矩阵,状态结点的捆绑,快速匹配,在搜索路径中加入词跳转的估计参数等。利用上述技术,该文实现了一个基于数据手套和位置跟踪器的大词汇量的连续的中国手语实时识别系统,对中国手语辞典中收录的5100个词以及一批连续语句作实验,实验结果表明,文中所介绍的技术在提高系统识别速度和准确率方面都很有效。  相似文献   

3.
手语是聋人使用的语言,是由手形动作辅之以表情姿势由符号构成的比较稳定的表达系统,是一种靠动作/视觉交际的语言。手语识别的研究目标是让机器看懂聋人的语言。手语识别和手语合成相结合,构成一个人-机手语翻译系统,便于聋人与周围环境的交流.手语识别问题是动态手势信号即手语信号的识别问题。将 AdaBoost 这一算法引入手势识别中,自行建立了实验用的小型手势图片库。在分类器训练前对训练用图像进行了较有效的预处理,缩短了 AdaBoost 算法的训练识别时间,提高了多层分类器的识别速度,最好测试结果其平均准确率可达到90%。  相似文献   

4.
基于计算机视觉的手语识别技术能为聋校双语教学带来很大的便利。近年来,随着深度学习技术的蓬勃发展,手语识别的准确率和速度有了极大的提高。与使用颜色标记和外界技术(如Kinect手心定位技术)的方法不同,提出一种改进的SSD(Single-Shot Multibox Detector)网络,对手势进行目标检测完成中国手语识别。针对手部小目标,将SE-Net嵌入SSD中的特征层进行通道权重分配,改进损失函数更好地应对正负样本不均衡问题,使用mixup进行数据增强,将手势识别结果在中国手语关键手势模板库中进行匹配,从而完成动态手语识别。实验证明,该算法在手语识别上具有较高的准确率和识别速度。  相似文献   

5.
杨全  彭进业 《计算机应用》2013,33(10):2882-2885
为了实现手语视频中手语字母的准确识别,提出了一种基于DI_CamShift和手语视觉单词(SLVW)的手语识别算法。首先采用Kinect获取手语字母手势视频及其深度信息;然后通过计算获得深度图像中手语手势的主轴方向角和质心位置,计算搜索窗口对手势跟踪;进而使用基于深度积分图像的Ostu算法分割手势并提取其尺度不变特征转换(SIFT)特征;最后构建SLVW词包并用支持向量机(SVM)进行识别。单个手语字母最好识别率为99.67%,平均识别率96.47%  相似文献   

6.
基于视觉的手势识别技术   总被引:1,自引:0,他引:1  
近年来计算机已经成为人们日常生活的一部分,人们与计算机的交互也日益成为科研领域的热点。基于视觉的手势识别是实现新一代人机交互所不可缺少的一项关键技术,而手势识别的研究也可促进手语识别的发展,从而消除健全人与聋哑人之间的交流障碍,使他们能获得健全人的正常生活,帮忙他们参加社会的各项活动。文中介绍了手势识别方法的发展、手势识别的技术难点,具体阐述了基于视觉的手势识别系统原理和组成,手势的建模以及在手势识别中常用的技术方法。  相似文献   

7.
针对目前室内移动机器人手势指令识别系统存在的问题,对图像传感器与机器人相分离的图像采集方案进行了研究,并利用动态手势指令对机器人进行控制。动态手势指令识别方法是对手的不同运动轨迹进行识别,通过皮肤颜色模型和手势中心点方向向量法追踪得到手势运动轨迹,提取手势运动轨迹的特征向量,通过基于动态时间规整(DTW)实现对轨迹的识别。实验结果表明,该系统可以实现对机器人前进、后退、左转、右转的实时控制。  相似文献   

8.
基于视觉的手势识别技术   总被引:4,自引:0,他引:4  
近年来计算机已经成为人们日常生活的一部分,人们与计算机的交互也日益成为科研领域的热点.基于视觉的手势识别是实现新一代人机交互所不可缺少的一项关键技术,而手势识别的研究也可促进手语识别的发展,从而消除健全人与聋哑人之间的交流障碍,使他们能获得健全人的正常生活,帮忙他们参加社会的各项活动.文中介绍了手势识别方法的发展、手势识别的技术难点,具体阐述了基于视觉的手势识别系统原理和组成,手势的建模以及在手势识别中常用的技术方法.  相似文献   

9.
目前常用的手势识别方法存在设备部署困难与价格高昂的问题,遂本文提出基于信道状态信息的手语识别方法。该方法利用WiFi设备采集信道状态信息,选用局部离群因子检测算法与离散小波变换相结合的方法降低数据噪声,并通过主成分分析法筛选子载波。经降噪后,提取手势波形特征值,最终通过自适应算法多次训练的隐马尔科夫模型得出识别结果。结果表明,该方法可有效识别多种环境下不同人员手语手势的表达且平均识别率达88.98%,相较其他系统识别精度更优。  相似文献   

10.
时间序列聚类算法及其在手势识别中的应用   总被引:1,自引:0,他引:1  
针对中国聋人手势词"语形"是由若干个基本手势组成的特点,本文提出了沿时间轴的贪心聚类算法,并在此基础上给出了一种快速训练算法及快速识别算法.将该算法具体应用到中国手语手势词的识别中,实验结果表明,与HMM相比,该方法不仅在识别速度上有大的改观,而且大大缩短了手势词对应模板的训练时间.  相似文献   

11.
基于词根的中国手语识别方法   总被引:1,自引:0,他引:1  
迄今为止,手语识别面临的最大问题是如何解决词汇集易扩充的连续识别,提出一种大词汇量连续中国手语识别方法,将词根作为识别基元,由于基元的数目是有限的,因此基于HMM的手语信号的训练和识别变得比较容易处理,可以实现更大词汇量的识别。除此之外,所提方法还有利于实现手势语和手指语的混合识别。从中国手语中共整理现2400多个词根,为每个词根建一个并行的HMM模型,对各数据流的HMM模型进行聚集,确定出手识别的基元。根据这些基元对手妫刻苦骊,并建立了树状搜索网络,使用状态垄点上高斯密度函数聚类、语言模型和N-Best方法提高系统的速度和精度。对5119个手语词做了实验,连续语句的识别率可在90%以上。  相似文献   

12.
In this work, we consider the recognition of dynamic gestures based on representative sub-segments of a gesture, which are denoted as most discriminating segments (MDSs). The automatic extraction and recognition of such small representative segments, rather than extracting and recognizing the full gestures themselves, allows for a more discriminative classifier. A MDS is a sub-segment of a gesture that is most dissimilar to all other gesture sub-segments. Gestures are classified using a MDSLCS algorithm, which recognizes the MDSs using a modified longest common subsequence (LCS) measure. The extraction of MDSs from a data stream uses adaptive window parameters, which are driven by the successive results of multiple calls to the LCS classifier. In a preprocessing stage, gestures that have large motion variations are replaced by several forms of lesser variation. We learn these forms by adaptive clustering of a training set of gestures, where we reemploy the LCS to determine similarity between gesture trajectories. The MDSLCS classifier achieved a gesture recognition rate of 92.6% when tested using a set of pre-cut free hand digit (0–9) gestures, while hidden Markov models (HMMs) achieved an accuracy of 89.5%. When the MDSLCS was tested against a set of streamed digit gestures, an accuracy of 89.6% was obtained. At present the HMMs method is considered the state-of-the-art method for classifying motion trajectories. The MDSLCS algorithm had a higher accuracy rate for pre-cut gestures, and is also more suitable for streamed gestures. MDSLCS provides a significant advantage over HMMs by not requiring data re-sampling during run-time and performing well with small training sets.  相似文献   

13.
方高林  高文  陈熙霖  王春立  马继勇 《软件学报》2002,13(11):2169-2175
手语识别是通过计算机提供一种有效而准确的机制将手语翻译成文本或语音。目前最新发展水平的手语识别系统在实际应用中应解决非特定人连续手语问题。提出一种将连续手语识别分解成各弧立词识别的分治方法,用于非特定人连续手语识别。把精简循环网(simple recurrent network,简称SRN)作为连续手语的段边界检测器,把SRN分段结果作为隐马可夫模型(hidden Markov models,简称HMM)框架中的状态输入,在HMM框架里使用网格Viterbi算法搜索出一条最佳手语词路径。实验结果表明,该方法的识别效果比单纯使用HMM要好。  相似文献   

14.
生活中似是而非的手语表达语义含糊,欠规范的手势动作易混淆,同时从有限样本中难以获得充足特征用于训练手语识别模型,模型容易过拟合进而导致识别准确率较低.针对此问题,提出一种在有限样本条件下扩充欠规范手语识别容错特征的表示学习方法.该方法基于手语表达时人体骨架的运动信息,面向手语的时空关联性构建自编码器,从手语语料库中少量...  相似文献   

15.
手语识别的研究具有重大的学术价值和广泛的应用前景。在近些年的手语识别工作中,隐马尔可夫模型(Hidden Markov Models,简称HMMs)起到了重要的作用,但是,HMMs假设同一状态内的观察值之间是独立同分布的,这个假设同某些手语信号的帧间相关性相背离。受到多项式片段模型(Polynomial Segment Models,简称PSMs)能够显式描述帧间相关性的启发,提出了一种简化的PSMs,其中应用马氏距离作为距离测度。实验表明,这种简化的PSMs在同传统的HMMs进行后验概率归一化求和的融合之后,手语词的平均相对正确率得到了13.38%的提升,从而证明此方法是一种更加精确的手语识别方法。  相似文献   

16.
手语是一种靠动作、视觉进行交流的特殊语言,在手语表达过程中,头部运动蕴涵语义以及情感信息。本文分析了手语表达中手势动作和头部动作的运动相关性,利用隐马尔可夫模型(HMMs)为每一个离散的头部动作表示建模,基于一阶马尔科夫模型和插值算法生成平滑的头动动画。  相似文献   

17.
手语是一种靠动作、视觉进行交流的特殊语言,在手语表达过程中,头部运动蕴涵语义以及情感信息。本文分析了手语表达中手势动作和头部动作的运动相关性,利用隐马尔可夫模型(HMMs)为每一个离散的头部动作表示建模,基于一阶马尔科夫模型和插值算法生成平滑的头动动画。  相似文献   

18.
Sign language in Arab World has been recently recognized and documented. There have been no serious attempts to develop a recognition system that can be used as a communication means between hearing-impaired and other people. This paper introduces the first automatic Arabic sign language (ArSL) recognition system based on hidden Markov models (HMMs). A large set of samples has been used to recognize 30 isolated words from the Standard Arabic sign language. The system operates in different modes including offline, online, signer-dependent, and signer-independent modes. Experimental results on using real ArSL data collected from deaf people demonstrate that the proposed system has high recognition rate for all modes. For signer-dependent case, the system obtains a word recognition rate of 98.13%, 96.74%, and 93.8%, on the training data in offline mode, on the test data in offline mode, and on the test data in online mode respectively. On the other hand, for signer-independent case the system obtains a word recognition rate of 94.2% and 90.6% for offline and online modes respectively. The system does not rely on the use of data gloves or other means as input devices, and it allows the deaf signers to perform gestures freely and naturally.  相似文献   

19.
We present a wearable input system which enables interaction through 3D handwriting recognition. Users can write text in the air as if they were using an imaginary blackboard. The handwriting gestures are captured wirelessly by motion sensors applying accelerometers and gyroscopes which are attached to the back of the hand. We propose a two-stage approach for spotting and recognition of handwriting gestures. The spotting stage uses a support vector machine to identify those data segments which contain handwriting. The recognition stage uses hidden Markov models (HMMs) to generate a text representation from the motion sensor data. Individual characters are modeled by HMMs and concatenated to word models. Our system can continuously recognize arbitrary sentences, based on a freely definable vocabulary. A statistical language model is used to enhance recognition performance and to restrict the search space. We show that continuous gesture recognition with inertial sensors is feasible for gesture vocabularies that are several orders of magnitude larger than traditional vocabularies for known systems. In a first experiment, we evaluate the spotting algorithm on a realistic data set including everyday activities. In a second experiment, we report the results from a nine-user experiment on handwritten sentence recognition. Finally, we evaluate the end-to-end system on a small but realistic data set.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号