共查询到10条相似文献,搜索用时 765 毫秒
1.
利用隐马尔可夫模型(HMMs) ,对CCD摄像机采集的人体运动视频图像中的人体姿态识别问题进行了研究,主要内容包括选择新的特征向量抽取算法;设计HMM训练和识别算
法。实验结果表明,该方法在实践中是可行的。在虚拟现实、视觉监控、感知接口等领域均有着广阔的应用前景。 相似文献
2.
基于多幅同目标图像和HMM的SAR图像目标识别 总被引:2,自引:0,他引:2
该文提出了一种基于多幅同目标图像和隐马尔可夫模型的合成孔径雷达图像目标识别方法。该方法通过小波域主成分分析提取目标图像特征向量,结合多幅不同方位角下的同目标图像的特征向量生成单幅图像的特征序列,用隐马尔可夫模型对特征序列进行识别。实验结果表明,该方法可明显提高目标的正确识别率,是一种有效的合成孔径雷达图像目标识别方法。 相似文献
3.
4.
提出一种基于步态能量图的隐马尔可夫模型身份识别算法.首先预处理提取出运动人体的侧面轮廓,根据步态下肢的摆动距离计算出步态周期,得到平均步态能量图.对能量图用K-均值聚类的方法生成观察向量,进行一维离散隐马尔可夫模型训练,用训练好的模型参数进行身份识别.最后在CASIA步态数据库上对所提出的算法进行实验.实验表明该方法具有较好的识别性能. 相似文献
5.
基于轮廓特征的人体行为识别 总被引:1,自引:1,他引:0
提出了一种以运动人体轮廓为特征,基于模板匹配的人体行为识别方法。首先,利用背景差分法和阴影消除技术提取运动人体轮廓;定义一种边界点-半径的轮廓描述方法,将时变的二维轮廓形状转换为对应的一维距离向量;以成本函数为特征向量,利用谱系聚类方法提取行为序列的关键姿态;最后,将关键姿态编码为行为字符串,利用编辑距离度量测试序列与标准序列间的相似性。实验结果表明,利用本文方法对人的6种日常行为进行识别,正确识别率达到84.3%以上,具有简单实用的特点。 相似文献
6.
传统的步态识别方法在处理自遮挡步态识别问题时,通常由于从视频序列中分割出来的轮廓有噪声而不能很好地进行特征提取。为了解决这个问题,提出了基于帧差能量图(Frame Difference Energy Image,FDEI)的遗传算法(Genetic Algorithm,GA),首先采用数学形态学图像处理方法填平轮廓的漏洞并消除噪声,然后借助于步态能量图计算出步态图像的帧差能量图,接着从轮廓图像序列中提取出步态特征,最后,利用遗传算法完成步态的识别。在中科院自动化所-B(CASIA-B)步态数据库上实验验证了所提方法的有效性,实验结果表明,与几种先进的步态方法相比,所提方法在处理自遮挡步态识别问题上取得了更好的识别效果。 相似文献
7.
8.
人体姿态估计是计算机视觉研究领域的热点研究问题之一,但其在传统民间舞蹈动作姿态估计方面的应用研究尚处于起步阶段.由于舞蹈图像中人体动作复杂多变、舞蹈动作连贯性强、舞蹈者存在严重遮挡不易检测等特点,传统人体姿态估计方法难以准确估计舞蹈者的动作变化,导致舞蹈动作姿态估计准确率较低.针对此问题,本文提出一种基于序列多尺度特征融合表示的层级舞蹈动作姿态估计方法,该方法针对舞蹈动作骨骼关节点尺度变化剧烈的问题,构建基于序列多尺度特征融合表示的关节点估计模型.并且,针对舞蹈姿态形变较大,遮挡严重的问题,设计基于关节点几何关系的层级姿态估计模型,提高舞蹈动作姿态估计的效果.实验结果表明,本文方法在标准人体姿态估计数据集及自建舞蹈数据集上取得较好的姿态估计结果. 相似文献
9.
复杂光照环境下难以实现人脸姿态的高精准跟踪,为此研究复杂光照环境下视频序列人脸姿态跟踪方法,提升跟踪进度和效率。通过高频加强滤波和直方图均衡技术光照补偿视频序列图像,采用参考颜色表法匹配图像肤色序列特征,将匹配到的图像肤色序列特征作为待分类样本输入Boosting分类器,利用改进Adaboost算法自动挑选特征,检测待跟踪人脸姿态特征,以此为基础,通过创建二维肤色高斯模型,并不断更新肤色模型,克服复杂光照条件对肤色带来的影响,实现复杂光照环境下人脸姿态跟踪。实验结果表明,该方法对于平移、缩放、旋转、光照及遮挡等复杂光照环境下的人脸姿态都能较好跟踪,在摄像机固定状态下,跟踪准确率为98.57%,计算时间为1.5 s,在摄像机运动状态下,跟踪准确率为93.33%,计算时间为1.86 s,抗噪声干扰性能较为优越。 相似文献
10.
在基于视频图像的动作识别中,由于固定视角相机所获取的不同动作视频存在视角差异,会造成识别准确率降低等问题。使用多视角视频图像是提高识别准确率的方法之一,提出基于三维残差网络(3D Residual Network,3D ResNet)和长短时记忆(Long Short-term Memory,LSTM)网络的多视角人体动作识别算法,通过3D ResNet学习各视角动作序列的融合时空特征,利用多层LSTM网络继续学习视频流中的长期活动序列表示并深度挖掘视频帧序列之间的时序信息。在NTU RGB+D 120数据集上的实验结果表明,该模型对多视角视频序列动作识别的准确率可达83.2%。 相似文献