首页 | 本学科首页   官方微博 | 高级检索  
检索     
共有20条相似文献,以下是第1-20项 搜索用时 375 毫秒

1.  结合特权信息的人体动作识别  
   凌佩佩  邱崧  蔡茗名  徐伟  丰颖《中国图象图形学报》,2017年第22卷第4期
   目的 采用传统的2维特征提取方法,很难从视频中准确地捕获出人体的关节点位置,限制了识别率的上限。采用深度信息的3维特征提取能提升识别率,但高维空间运算复杂度高,很难实现实时识别,受应用场景限制。为克服上述难点,提出一种基于3维特权学习的人体动作识别方法,将3维信息作为特权信息引入到传统的2维动作识别过程中,用来识别人体动作。方法 以运动边界直方图密集光流特征、Mosift(Motion SIFT)特征和多种特征结合的混合特征作为2维基本特征。从Kinect设备获得的深度信息中评估出人体的关节点信息,并用李群算法处理得到3维特征作为特权信息。特权信息在经典支持向量机下的识别效果优于2维基本特征。训练数据包含2维基本特征和3维特权信息,测试数据只有2维基本特征。通过训练样本学习,得到结合特权信息的支持向量机(SVM+),使用该向量机对测试样本进行分类,得到人体动作识别结果。结果 在UTKinect-Action和Florence3D-Action两个人体动作数据集上进行实验。引入特权信息后,人体动作识别率较传统2维识别有2%的平均提升,最高达到9%。SVM+分类器对参数的敏感性较SVM下降。结论 实验结果表明,本文方法较以往方法,在提升识别准确率的同时,降低了分类器对参数的敏感性。本文方法仅在训练过程中需要同时提取2维基本特征和3维特权信息,而在测试过程中无需借助深度信息获取设备提取3维特权特征信息,学习速度快,运算复杂度低,可广泛应用于低成本,高实时的人体动作识别场合。    

2.  基于深度数据的人体动作识别方法  
   王鑫  沃波海  管秋  陈胜勇《中国图象图形学报》,2014年第19卷第6期
   本文提出了一个基于流形学习的动作识别框架,用来识别深度图像序列中的人体行为。本文从Kinect设备获得的深度信息中评估出人体的关节点信息,并用相对关节点位置差作为人体特征表达。在训练阶段,本文利用Lapacian eigenmaps(LE)流形学习对高维空间下的训练集进行降维,得到低维隐空间下的运动模型。在识别阶段,本文用最近邻差值方法将测试序列映射到低维流形空间中去,然后进行匹配计算。在匹配过程中,通过使用改进的Hausdorff距离对低维空间下测试序列和训练运动集的吻合度和相似度进行度量。本文用Kinect设备捕获的数据进行了实验,取得了良好的效果;同时本文也在MSR Action3D数据库上进行了测试,结果表明在训练样本较多情况下,本文识别效果优于以往方法。实验结果表明本文所提的方法适用于基于深度图像序列的人体动作识别。    

3.  人体运动分析的实例学习方法  
   李毅  刘兴川  孙亭《中国图象图形学报》,2015年第20卷第7期
   目的 面向实时、准确、鲁棒的人体运动分析应用需求,从运动分析的特征提取和运动建模问题出发,本文人体运动分析的实例学习方法。方法 在构建人体姿态实例库基础上,首先,采用运动检测方法得到视频每帧的人体轮廓;其次,基于形状上下文轮廓匹配方法,从实例库中检索得到每帧视频的候选姿态集;最后,通过统计建模和转移概率建模实现人体运动分析。结果 对步行、跑步、跳跃等测试视频进行实验,基于轮廓的形状上下文特征表示和匹配方法具有良好的表达能力;本文方法运动分析结果,关节夹角平均误差在5°左右,与其他算法相比,有效提高了运动分析的精度。结论 本文人体运动分析的实例学习方法,能有效分析单目视频中的人体运动,并克服了映射的深度歧义,对运动的视角变化鲁棒,具有良好的计算效率和精度。    

4.  自适应骨骼中心的人体行为识别算法  
   冉宪宇  刘凯  李光  丁文文  陈斌《中国图象图形学报》,2018年第23卷第4期
   目的 基于3维骨架的行为识别研究在计算机视觉领域一直是非常活跃的主题,在监控、视频游戏、机器人、人机交互、医疗保健等领域已取得了非常多的成果。现今的行为识别算法大多选择固定关节点作为坐标中心,导致动作识别率较低,为解决动作行为识别中识别精度低的问题,提出一种自适应骨骼中心的人体行为识别的算法。方法 该算法首先从骨骼数据集中获取三维骨架序列,并对其进行预处理,得到动作的原始坐标矩阵;再根据原始坐标矩阵提取特征,依据特征值的变化自适应地选择坐标中心,重新对原始坐标矩阵进行归一化;最后通过动态时间规划方法对动作坐标矩阵进行降噪处理,借助傅里叶时间金字塔表示的方法减少动作坐标矩阵时间错位和噪声问题,再使用支持向量机对动作坐标矩阵进行分类。论文使用国际上通用的数据集UTKinect-Action和MSRAction3D对算法进行验证。结果 结果表明,在UTKinect-Action数据集上,该算法的行为识别率比HO3D J2算法高4.28%,比CRF算法高3.48%。在MSRAction3D数据集上,该算法比HOJ3D算法高9.57%,比Profile HMM算法高2.07%,比Eigenjoints算法高6.17%。结论 本文针对现今行为识别算法的识别率低问题,探究出问题的原因是采用了固定关节坐标中心,提出了自适应骨骼中心的行为识别算法。经仿真验证,该算法能有效提高人体行为识别的精度。    

5.  基于协作表示残差融合的3维人脸识别  
   詹曙  臧怀娟  相桂芳《中国图象图形学报》,2015年第20卷第5期
   目的 针对2维人脸难以克服光照、表情、姿态等复杂问题,提出了一种基于协作表示残差融合的新算法.方法 协作表示分类算法是将所有类的训练图像一起协作构成字典,通过正则化最小二乘法代替1范数求解稀疏系数,减小了计算的复杂度,由此系数重构测试人脸,根据重构误差最小原则,对测试人脸正确分类.该方法首先在3维人脸深度图上提取Gabor特征和Geodesic特征,然后在协作表示算法的基础上融合两者的残差信息,作为最终差异性度量,最后根据融合残差最小原则,进行人脸识别.结果 在不同的训练样本、特征维数条件下,在CIS和Texas 2 个人脸数据库上,本文算法的识别率可分别达到94.545%和99.286%.与Gabor-CRC算法相比,本文算法的识别率平均高出了10%左右.结论 在实时成像系统采集的人脸库和Texas 3维人脸库上的实验结果表明,该方法对有无姿态、表情、遮挡等变化问题具有较好的鲁棒性和有效性.    

6.  动作切分和流形度量学习的视频动作识别  
   罗会兰  赖泽云  孔繁胜《中国图象图形学报》,2017年第22卷第8期
   目的 为了提高视频中动作识别的准确度,提出基于动作切分和流形度量学习的视频动作识别算法。方法 首先利用基于人物肢体伸展程度分析的动作切分方法对视频中的动作进行切分,将动作识别的对象具体化;然后从动作片段中提取归一化之后的全局时域特征和空域特征、光流特征、帧内的局部旋度特征和散度特征,构造一种7×7的协方差矩阵描述子对提取出的多种特征进行融合;最后结合流形度量学习方法有监督式地寻找更优的距离度量算法提高动作的识别分类效果。结果 对Weizmann公共视频集的切分实验统计结果表明本文提出的视频切分方法具有很好的切分能力,能够作好动作识别前的预处理;在Weizmann公共视频数据集上进行了流形度量学习前后的识别效果对比,结果表明利用流形度量学习方法对动作识别效果提升2.8%;在Weizmann和KTH两个公共视频数据集上的平均识别率分别为95.6%和92.3%,与现有方法的比较表明,本文提出的动作识别方法有更好的识别效果。结论 多次实验结果表明本文算法在预处理过程中动作切分效果理想,描述动作所构造协方差矩阵对动作的表达有良好的多特征融合能力,而且光流信息和旋度、散度信息的加入使得人体各部位的运动方向信息具有了更多细节的描述,有效提高了协方差矩阵的描述能力,结合流形度量学习方法对动作识别的准确性有明显提高。    

7.  结合深度学习的单幅遥感图像超分辨率重建  
   李欣  韦宏卫  张洪群《中国图象图形学报》,2018年第23卷第2期
   目的 克服传统遥感图像超分辨率重建方法依赖同一场景多时相图像序列且需预先配准等缺点,解决学习法中训练效率低和过拟合问题,同时削弱插值操作后的块效应,增强单幅遥感图像超分辨率重建效果。方法 首先构造基于四层卷积的深度神经网络结构,并在结构中前三层卷积后添加参数修正线性单元层和局部响应归一化层进行优化,经过训练得到遥感图像超分辨率重建模型,其次,对多波段遥感图像的亮度空间进行双三次插值,然后使用该模型对插值结果进行重建,并在亮度空间重建结果指导下,使用联合双边滤波来提升其色度空间边缘细节。结果 应用该方法对实验遥感图像进行2倍、3倍、4倍重建时在无参考指标上均优于对比方法,平均清晰度提升约2.5个单位,同时取得了较好的全参考评价结果,在2倍重建时峰值信噪比较传统插值法提升了约2 dB,且平均训练效率较其他学习法提升3倍以上,所得遥感图像重建结果在目视效果上更加细致、自然。结论 实验结果表明,本文设计的网络抗过拟合能力强、训练效率高,重建时针对单幅遥感图像,无需依赖图像序列且不受波段影响,重建结果细节表现较好,具有较强的普适性。    

8.  多方向显著性权值学习的行人再识别  被引次数:1
   陈莹  霍中花《中国图象图形学报》,2015年第20卷第12期
   目的 针对当前行人再识别匹配块的显著性外观特征不一致的问题,提出一种对视角和背景变化具有较强鲁棒性的基于多向显著性相似度融合学习的行人再识别算法。方法 首先用流形排序估计目标的内在显著性,并融合类间显著性得到图像块的显著性;然后根据匹配块的4种显著性分布情况,通过多向显著性加权融合建立二者的视觉相似度,同时采用基于结构支持向量机排序的度量学习方法获得各方向显著性权重值,形成图像对之间全面的相似度度量。结果 在两个公共数据库进行再识别实验,本文算法较同类方法能获取更为全面的相似度度量,具有较高的行人再识别率,且不受背景变化的影响。对VIPeR数据库测试集大小为316对行人图像的再识别结果进行了定量统计,本文算法的第1识别率(排名第1的搜索结果即为待查询人的比率)为30%,第15识别率(排名前15的搜索结果中包含待查询人的比率)为72%,具有实际应用价值。结论 多方向显著性加权融合能对图像对的显著性分布进行较为全面的描述,进而得到较为全面的相似度度量。本文算法能够实现大场景非重叠多摄像机下的行人再识别,具有较高的识别力和识别精度,且对背景变化具有较强的鲁棒性。    

9.  基于Kinect的人体动作识别方法  
   辛义忠  邢志飞《计算机工程与设计》,2016年第4期
   为解决在Kinect平台下人体动作识别中时空复杂性的问题,提出一种基于特征选择的模板识别方法。根据人体不同位置关节点对动作表达的贡献度的不同,将骨骼模型60维的关节点数据转化成24维的距离特征向量,该特征模型能够在空间上对动作进行表示,具有一定不变性,计算复杂度低;结合动态时间规整的思想,解决动作识别在时间轴上不统一的问题;基于所提出的方法实现动作识别系统,定义6种基于交互的上肢动作,在此动作库中进行两个实验共1320次测试,两个实验的平均识别率为93.6%和89.8%,实验结果验证了该方法的鲁棒性和有效性,可以满足交互任务的需求。    

10.  数字皮影的交互仿真和动画绘制  被引次数:2
   陈璇  张明敏  潘志庚《中国图象图形学报》,2014年第19卷第10期
   目的 从保护和传承传统皮影文化的角度,使用Kinect设备和带有颜色标识的皮影签子,提出一种类似于传统皮影的交互方式来控制数字皮影。方法 首先,利用Kinect获得的深度图以及彩色图并配合训练已得的颜色标识,计算出签子头部的位置,且为每个签子设置卡尔曼滤波器的控制,为皮影动画提供较为稳定的控制信息。其次,将数字皮影组织成3根签子控制特有的关节层次模型。在当前模型下,结合输入的控制信息分析皮影的动作原理,通过OpenGL绘制技术,最终呈现出皮影动画。结果 实验中,用户手执皮影签子面对Kinect,操纵绘制在计算机上的皮影人物,随着签子的移动,皮影可以在构造出的悟空摘桃的皮影场景里进行相应的任意移动、挥舞胳膊、腿部下跪弯曲等动作。用户调查表明该操控方式与传统皮影类似,但该方式更简单,皮影动画也美观有趣味性。结论 仿真传统皮影交互的新的数字皮影的交互方式,对于想体验传统皮影戏表演的非专业人士来说,操作更加容易,且相比于其他数字皮影的交互更有继承传统皮影交互的力度。    

11.  Kinect传感器的彩色和深度相机标定  
   郭连朋  陈向宁  刘彬《中国图象图形学报》,2014年第19卷第11期
   目的 针对现有的Kinect传感器中彩色相机和深度相机标定尤其是深度相机标定精度差、效率低的现状,本文在现有的基于彩色图像和视差图像标定算法的基础上,提出一种快速、精确的改进算法。方法 用张正友标定法标定彩色相机,用泰勒公式化简深度相机中用于修正视差值的空间偏移量以简化由视差与深度的几何关系构建的视差畸变模型,并以该模型完成Kinect传感器的标定。结果 通过拍摄固定于标定平板上的标定棋盘在不同姿态下的彩色图像和视差图像,完成Kinect传感器的标定,获得彩色相机和深度相机的畸变参数及两相机之间的旋转和平移矩阵,标定时间为116 s,得到彩色相机的重投影误差为0.33,深度相机的重投影误差为0.798。结论 实验结果表明,该改进方法在保证标定精度的前提下,优化了求解过程,有效提高了标定效率。    

12.  草绘3维人体建模的模板形变方法  
   李毅  刘兴川  孙亭《中国图象图形学报》,2015年第20卷第6期
   目的 采用草绘交互方式直接构造3维人体模型是当前人体建模研究的重要课题之一.提出一种草绘3维人体建模的模板形变方法.方法 针对输入的草图,首先,采用关节点定位方法获取草图中的人体关节点,根据人体结构学约束识别人体骨架结构,通过解析人体轮廓草图获取人体草图特征;其次,通过骨架模板和外观轮廓模板形变,将草图特征映射到3维人体模型,实现3维人体建模.结果 草图解析方法能有效提取草图特征,通过模板形变方法生成3维人体模型,并在模型上保持草图特征;能适应不同用户的绘制习惯,且生成的3维人体模型可用于人体动画设计.结论 提出一种草绘3维人体建模的模板形变方法,支持用户采用草绘方式进行3维人体模型设计,方法具有良好的用户适应性,对3维动画创作具有重要意义.    

13.  混合编码差分进化粒子群算法及多示例学习的高光谱影像降维与分类  
   高红民  李臣明  王艳  谢科伟  陈玲慧  何振宇《中国图象图形学报》,2015年第20卷第12期
   目的 高光谱遥感影像由于其巨大的波段数直接导致信息的高冗余和数据处理的复杂,这不仅带来庞大的计算量,而且会损害分类精度。因此,在对高光谱影像进行处理、分析之前进行降维变得非常必要。分类作为一种重要的获取信息的手段,现有的基于像素点和图斑对象特征辨识地物种类的方法在强噪声干扰训练样本条件下精度偏低,在对象的基础上,将光谱和空间特征相似的对象合并成比其还要大的集合,再按照各个集合的光谱和空间特征进行分类,则不容易受到噪声等因素的干扰。方法 提出混合编码差分进化粒子群算法的双种群搜索策略进行降维,基于支持向量机的多示例学习算法作为分类方法,构建封装型降维与分类模型。结果 采用AVIRIS影像进行实验,本文算法相比其他相近的分类方法能获得更高的分类精度,达到96.03%,比其他相近方法中最优的像元级的混合编码的分类方法精度高出0.62%。结论 在针对强干扰的训练样本条件下,本文算法在降维过程中充分发挥混合编码差分进化算法的优势,分类中训练样本中的噪声可以看做多示例学习中训练包"歧义性"的特定表现形式,有效提高了分类的精度。    

14.  融合多姿势估计特征的动作识别  
   罗会兰  冯宇杰  孔繁胜《中国图象图形学报》,2015年第20卷第11期
   目的 为了提高静态图像在遮挡等复杂情况下的动作识别效果和鲁棒性,提出融合多种姿势估计得到的特征信息进行动作识别的方法。方法 利用已得到的多个动作模型对任意一幅图像进行姿势估计,得到图像的多组姿势特征信息,每组特征信息包括关键点信息和姿势评分。将训练集中各个动作下所有图像的区分性关键点提取出来,并计算每一幅图像中区分性关键点之间的相对距离,一个动作所有图像的特征信息共同构成该动作的模板信息。测试图像在多个动作模型下进行姿势估计,得到多组姿势特征,从每组姿势特征中提取与对应模板一致的特征信息,将提取的多组姿势特征信息分别与对应的模板进行匹配,并通过姿势评分对匹配值优化,根据最终匹配值进行动作分类。结果 在两个数据集上,本文方法与5种比较流行的动作识别方法进行比较,获得了较好的平均准确率,在数据集PASCAL VOC 2011-val上较其他一些最新的经典方法平均准确率至少提高近2%。在数据集Stanford 40 actions上,较其他一些最新的经典方法平均准确率至少提高近6%。结论 本文方法融合了多个姿势特征,并且能够获取关键部位的遮挡信息,所以能较好应对遮挡等复杂环境情况,具有较高的平均识别准确率。    

15.  基于局部时空特征方向加权的人体行为识别  
   李俊峰  张飞燕《中国图象图形学报》,2015年第20卷第3期
   目的 对人体行为的描述是行为识别中的关键问题,为了能够充分利用训练数据从而保证特征对行为的高描述性,提出了基于局部时空特征方向加权的人体行为识别方法。方法 首先,将局部时空特征的亮度梯度特征分解为3个方向(XYZ)分别来描述行为, 通过直接构造视觉词汇表分别得到不同行为3方向特征描述子集合的标准视觉词汇码本,并利用训练视频得到每个行为的标准3方向词汇分布;进而,根据不同行为3方向特征描述子集合的标准视觉词汇码本,分别计算测试视频相应的3方向的词汇分布,并利用与各行为标准3方向词汇分布的加权相似性度量进行行为识别;结果 在Weizmann数据库和KTH数据库中进行实验,Weizmann数据库中的平均识别率高达96.04%,KTH数据库中的平均识别率也高达96.93%。结论 与其他行为识别方法相比可以明显提高行为平均识别率。    

16.  整合全局—局部度量学习的人体目标再识别  
   张晶  赵旭《中国图象图形学报》,2017年第22卷第4期
   目的 人体目标再识别的任务是匹配不同摄像机在不同时间、地点拍摄的人体目标。受光照条件、背景、遮挡、视角和姿态等因素影响,不同摄相机下的同一目标表观差异较大。目前研究主要集中在特征表示和度量学习两方面。很多度量学习方法在人体目标再识别问题上了取得了较好的效果,但对于多样化的数据集,单一的全局度量很难适应差异化的特征。对此,有研究者提出了局部度量学习,但这些方法通常需要求解复杂的凸优化问题,计算繁琐。方法 利用局部度量学习思想,结合近几年提出的XQDA(cross-view quadratic discriminant analysis)和MLAPG(metric learning by accelerated proximal gradient)等全局度量学习方法,提出了一种整合全局和局部度量学习框架。利用高斯混合模型对训练样本进行聚类,在每个聚类内分别进行局部度量学习;同时在全部训练样本集上进行全局度量学习。对于测试样本,根据样本在高斯混合模型各个成分下的后验概率将局部和全局度量矩阵加权结合,作为衡量相似性的依据。特别地,对于MLAPG算法,利用样本在各个高斯成分下的后验概率,改进目标损失函数中不同样本的损失权重,进一步提高该方法的性能。结果 在VIPeR、PRID 450S和QMUL GRID数据集上的实验结果验证了提出的整合全局—局部度量学习方法的有效性。相比于XQDA和MLAPG等全局方法,在VIPeR数据集上的匹配准确率提高2.0%左右,在其他数据集上的性能也有不同程度的提高。另外,利用不同的特征表示对提出的方法进行实验验证,相比于全局方法,匹配准确率提高1.3%~3.4%左右。结论 有效地整合了全局和局部度量学习方法,既能对多种全局度量学习算法的性能做出改进,又能避免局部度量学习算法复杂的计算过程。实验结果表明,对于使用不同的特征表示,提出的整合全局—局部度量学习框架均可对全局度量学习方法做出改进。    

17.  子块鉴别分析的路面裂缝检测  
   钱彬  唐振民  徐威  陶玉婷《中国图象图形学报》,2015年第20卷第12期
   目的 路面图像受光照、行道线和油渍等干扰使得准确的提取并统计路面裂缝信息难以实现。鉴于此,提出一种基于子块鉴别分析的路面裂缝检测算法。方法 首先提出一种基于亮度补偿的灰度校正算法用以削弱光照等影响并结合稀疏自编码模型提取子块特征;然后在鉴别分析基础上提出两类迭代鉴别分析降维算法,通过循环更新子类类间距离,使得裂缝子块投影和聚类交替执行直至满足收敛条件从而获得更具有鉴别能力的低维子空间;最后对投影后的子块采用最近邻分类器进行快速分类。结果 迭代过程中裂缝子块聚类结果逐渐趋向于低维子空间下的真实样本分布形态、子空间鉴别能力大幅提升。公开数据集上该算法取得95.5%的识别率,在实际采集的高速公路数据库上也取得90.9%的识别率,验证了本文算法的有效性。结论 提出了一种高效的基于鉴别分析的子块特征识别算法用于路面裂缝检测,在深度挖掘裂缝子块特征的基础上,迭代寻找最优低维鉴别子空间实现特征降维,在包含多种噪声的路面环境中具有良好的鲁棒性和适应性。多组对比实验结果表明其有效性优于其他裂缝子块特征识别方法。    

18.  结合相位一致性的度量学习跟踪  
   霍其润  陆耀  刘羽  巢进波《中国图象图形学报》,2017年第22卷第3期
   目的 目标跟踪在实际应用中通常会遇到一些复杂的情况,如光照变化、目标变形等问题,为提高跟踪的准确性和稳定性,提出了一种基于相位一致性特征的度量学习跟踪方法。方法 首先对目标区域提取相位一致性特征,其次结合集成学习和支持向量机的优点,利用度量学习的思想进行区域的相似性判别,以此来确定目标所在位置。跟踪的同时在线更新目标模型和度量矩阵从而实现自适应性。结果 算法的有效性在有外观、光照变化及遮挡等具有挑战性的视频序列上得到了验证,并与当前几种主流方法进行了跟踪成功率和跟踪误差的定量比较,实验结果显示本文算法在4组视频上的跟踪误差平均为15个像素,跟踪成功率最低的也达到了80%,优于其他算法,具有更好的跟踪准确性和稳定性。结论 本文设计并实现了一种基于度量学习的跟踪新方法,利用较少的训练样本即可学习到有判别力的度量矩阵。该跟踪方法对目标特征的维数没有限制,在高维特征空间的判别中更有优势,具有较好的通用性,在有外观、光照变化及遮挡等复杂情况下,均能获取较为准确和稳定的跟踪效果。    

19.  多媒体技术研究:2014——深度学习与媒体计算  
   吴飞  朱文武  于俊清《中国图象图形学报》,2015年第20卷第11期
   目的 海量数据的快速增长给多媒体计算带来了深刻挑战。与传统以手工构造为核心的媒体计算模式不同,数据驱动下的深度学习(特征学习)方法成为当前媒体计算主流。方法 重点分析了深度学习在检索排序与标注、多模态检索与语义理解、视频分析与理解等媒体计算方面的最新进展和所面临的挑战,并对未来的发展趋势进行展望。结果 在检索排序与标注方面, 基于深度学习的神经编码等方法取得了很好的效果;在多模态检索与语义理解方面,深度学习被用于弥补不同模态间的“异构鸿沟“以及底层特征与高层语义间的”语义鸿沟“,基于深度学习的组合语义学习成为研究热点;在视频分析与理解方面, 深度神经网络被用于学习视频的有效表示方式及动作识别,并取得了很好的效果。然而,深度学习是一种数据驱动的方法,易受数据噪声影响, 对于在线增量学习方面还不成熟,如何将深度学习与众包计算相结合是一个值得期待的问题。结论 该综述在深入分析现有方法的基础上,对深度学习框架下为解决异构鸿沟和语义鸿沟给出新的思路。    

20.  面向智能家居的挥手识别算法  
   杨硕  吉爱萍《中国图象图形学报》,2016年第21卷第10期
   目的 用手势控制家电是智能家居发展的趋势之一,传统的静态手势识别算法难以适应复杂的居家环境,特别当使用广角相机或环境干扰大时,为此提出一种动态的挥手识别算法,可以对视频序列中的挥手动作做出响应,以达到控制家电的目的。方法 挥手动作具有周期性且频率相对稳定,算法首先调整长滤波器和短滤波器使其检测到视频内周期性运动的区域,然后利用人手识别算法对周期性运动区域进行验证并确认人手。结果 通过与主流的手势识别算法的对比,在复杂环境下,本文算法将成功次数提高了3%,误触发次数降低了44%,响应时间也降低了近0.4 s。结论 实验结果表明,算法能够满足实际应用需求。此外,算法不基于运动目标检测,运算量极低,可以在较高的图像分辨率下实时运行,并能被移植到嵌入式平台下。    

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号