共查询到17条相似文献,搜索用时 218 毫秒
1.
针对已有的运动捕获数据关键帧提取方法常常忽略运动数据局部拓扑结构特性问题,提出了一种基于拉普拉斯分值LS特征选择的人体运动数据关键帧提取方法。该方法首先从原始运动数据集中提取两种代表性的特征向量并对其归一化,利用LS算法对组合后的特征向量进行打分和特征权重学习,以获取能够判别性揭示局部运动信息的特征子向量;其次,通过构建综合特征函数并基于极值判别原理,得到初始候选关键帧序列;最后,根据时间阈值约束和姿态相似判别策略,利用改进的k-means算法对候选帧进行聚类筛选,以达到去除冗余关键帧的目的,从而得到最终关键帧序列集合。仿真实验结果表明,该方法提取的关键帧序列具有典型性,能较好地对整体运动捕获数据进行视觉概括。 相似文献
2.
3.
4.
5.
基于不变矩和Mean Shift聚类的视频关键帧提取 总被引:1,自引:0,他引:1
随着通信和多媒体技术的迅速发展,检索和浏览海量多媒体数据成为日益迫切的问题.关键帧提取技术在基于内容的视频检索中扮演了重要角色.提取的关键帧有两个主要作用:一是用它来静态表示视频的主题;其二是希望从关键帧中提取特征数据,作为多媒体数据库的数据源.以视频场景中运动目标的不变矩为特征提出了一种基于非监督聚类的关键帧提取算法.首先在视频序列中分离出运动目标,然后计算运动目标区域的各阶不变矩,并以不变矩向量作为特征,运用Mean Shift算法聚类有相似特征的视频帧,进而在每类中选取有代表性的视频帧作为关键帧.不同场景下的实验结果证实了本算法的可行性. 相似文献
6.
7.
针对目前深度学习领域人体姿态估计算法计算复杂度高的问题,提出了一种基于光流的快速人体姿态估计算法.在原算法的基础上,首先利用视频帧之间的时间相关性,将原始视频序列分为关键帧和非关键帧分别处理(相邻两关键帧之间的图像和前向关键帧组成一个视频帧组,同一视频帧组内的视频帧相似),仅在关键帧上运用人体姿态估计算法,并通过轻量级光流场将关键帧识别结果传播到其他非关键帧.其次针对视频中运动场的动态特性,提出一种基于局部光流场的自适应关键帧检测算法,以根据视频的局部时域特性确定视频关键帧的位置.在OutdoorPose和HumanEvaI数据集上的实验结果表明,对于存在背景复杂、部件遮挡等问题的视频序列中,所提算法较原算法检测性能略有提升,检测速度平均可提升89.6%. 相似文献
8.
为实现人体动作的精准识别,判断人体行为,提出基于Transformer的人体动作识别方法。以注意力机制神经网络为基础,引入Transformer框架,构建人体动作识别网络模型;该模型利用注意力机制提取视频中关键信息特征,同时依据Transformer模块提取动作帧的时间特征,将提取的两种特征融合后输入分类器中,经由模型的分类器完成动作分类识别。测试结果表明,该方法具有较好的应用效果,能够精准识别视频图像中的人体动作情况,判断人体行为。 相似文献
9.
10.
在行为识别过程中,提取视频关键帧可以有效减少视频索引的数据量,从而提高
动作识别的准确性和实时性。为提高关键帧的代表性,提出一种关键帧序列优化方法,并在此
基础上进行行为识别。首先根据3D 人体骨架特征利用K-均值聚类算法提取人体运动视频序列
中的关键帧,然后根据关键帧所在序列中的位置进行二次优化以提取最优关键帧,解决了传统
方法中关键帧序列冗余等问题。最后根据最优关键帧利用卷积神经网络(CNN)分类器对行为视
频进行识别。在Florence3D-Action 数据库上的实验结果表明,该方法具有较高的识别率,并且
与传统方法相比大幅度缩短了识别时间。 相似文献
11.
为提高运动视频关键帧的运动表达能力和压缩率,提出柔性姿态估计和时空特征嵌入结合的运动视频关键帧提取技术。首先,利用人体动作的时间连续性保持建立具有时间约束限制的柔性部件铰接人体(ST-FMP)模型,通过非确定性人体部位动作连续性约束,采用N-best算法估计单帧图像中的人体姿态参数;接着,采用人体部位的相对位置和运动方向描述人体运动特征,通过拉普拉斯分值法实施数据降维,获得局部拓扑结构表达能力强的判别性人体运动特征向量;最后,采用迭代自组织数据分析技术(ISODATA)算法动态地确定关键帧。在健美操动作视频关键帧提取实验中,ST-FMP模型将柔性混合铰接人体模型(FMP)的非确定性人体部位的识别准确率提高约15个百分点,取得了81%的关键帧提取准确率,优于KFE和运动块的关键帧算法。所提算法对人体运动特征和人体姿态敏感,适用于运动视频批注审阅。 相似文献
12.
当前对视频的分析通常是基于视频帧,但视频帧通常存在大量冗余,所以关键帧的提取至关重要.现有的传统手工提取方法通常存在漏帧,冗余帧等现象.随着深度学习的发展,相对传统手工提取方法,深度卷积网络可以大大提高对图像特征的提取能力.因此本文提出使用深度卷积网络提取视频帧深度特征与传统方法提取手工特征相结合的方法提取关键帧.首先使用卷积神经网络对视频帧进行深度特征提取,然后基于传统手工方法提取内容特征,最后融合内容特征和深度特征提取关键帧.由实验结果可得本文方法相对以往关键帧提取方法有更好的表现. 相似文献
13.
提出了一种新颖的视频显著性检测方法。为了提取视频序列中具有高置信度的特征,根据输入帧和输入帧的初始显著图提出一种简单帧选择标准,并使用该简单选择标准挑选出视频序列中比较容易且准确提取前景对象的帧,从简单帧中获得鲁棒的前景背景标签;将图像进行超像素分割,提取时空特征与前景标签输入集成学习模型,经过多核SVM集成学习,最终生成像素级别的显著图,并且由运动特征扩散到整个视频集。各种视频序列的实验结果表明,该算法在定性和定量上优于传统的显着性检测算法。 相似文献
14.
Yuan Luo Hanxing Zhou Qin Tan Xuefeng Chen Mingjing Yun 《Pattern Recognition and Image Analysis》2018,28(2):225-231
For the traditional method to extract the surveillance video key frame, there are problems of redundant information, substandard representative content and other issues. A key frame extraction method based on motion target detection and image similarity is proposed in this paper. This method first uses the ViBe algorithm fusing the inter-frame difference method to divide the original video into several segments containing the moving object. Then, the global similarity of the video frame is obtained by using the peak signal to noise ratio, the local similarity is obtained through the SURF feature point, and the comprehensive similarity of the video image is obtained by weighted fusion of them. Finally, the key frames are extracted from the critical video sequence by adaptive selection threshold. The experimental results show that the method can effectively extract the video key frame, reduce the redundant information of the video data, and express the main content of the video concisely. Moreover, the complexity of the algorithm is not high, so it is suitable for the key frame extraction of the surveillance video. 相似文献
15.
为解决视频中群体人物行为语义抽取中群体人物相互遮挡、追踪困难等问题,构建一种基于特征关联的视频中群体行为人物语义抽取算法。该算法首先对视频帧提取多尺度融合特征图,通过特征图检测视频帧中可能存在的人物,利用去重算法筛除检测到的重复人物,精准定位群体人物边界框;接着预测群体人物特征掩码,通过比对相邻视频帧人物特征掩码的差异度追踪群体人物的运动轨迹;最后结合群体人物的运动轨迹推理每帧视频帧的群体人物行为语义,根据群体人物行为特点抽取视频群体人物行为语义。实验结果表明,该算法能够准确提取、定位群体人物的动态线索,解决群体人物复杂时空关系导致的语义抽取低效问题,有效地提高群体人物语义抽取的准确率和鲁棒性。 相似文献
16.
目的 卷积神经网络广泛应用于目标检测中,视频目标检测的任务是在序列图像中对运动目标进行分类和定位。现有的大部分视频目标检测方法在静态图像目标检测器的基础上,利用视频特有的时间相关性来解决运动目标遮挡、模糊等现象导致的漏检和误检问题。方法 本文提出一种双光流网络指导的视频目标检测模型,在两阶段目标检测的框架下,对于不同间距的近邻帧,利用两种不同的光流网络估计光流场进行多帧图像特征融合,对于与当前帧间距较小的近邻帧,利用小位移运动估计的光流网络估计光流场,对于间距较大的近邻帧,利用大位移运动估计的光流网络估计光流场,并在光流的指导下融合多个近邻帧的特征来补偿当前帧的特征。结果 实验结果表明,本文模型的mAP(mean average precision)为76.4%,相比于TCN(temporal convolutional networks)模型、TPN+LSTM(tubelet proposal network and long short term memory network)模型、D(&T loss)模型和FGFA(flow-guided feature aggregation)模型分别提高了28.9%、8.0%、0.6%和0.2%。结论 本文模型利用视频特有的时间相关性,通过双光流网络能够准确地从近邻帧补偿当前帧的特征,提高了视频目标检测的准确率,较好地解决了视频目标检测中目标漏检和误检的问题。 相似文献
17.
针对同源视频序列的copy-move篡改方式, 提出一种通过度量图像内容间的相关性, 来实现对视频序列的copy-move篡改检测并恢复的方法. 首先将视频帧内容转化为一系列连续的图像帧, 对图像分块, 提取每帧图像的8个特征矢量, 再利用欧氏距离计算帧间相关性, 并通过添加偏差矩阵构造动态偏差阈值, 检测出copy-move篡改序列且精确至帧, 从而实现对视频序列的篡改检测与恢复. 实验表明, 该算法对同源视频序列的copy-move篡改检测及恢复能够取得理想的效果. 相似文献