首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
吴渝  贾学鹏  李红波 《计算机应用》2008,28(12):3084-3088
网络多媒体的迅猛发展和普及使得对海量视频信息进行快速和低成本管理的需求日益迫切,而关键帧可以大大减少视频索引的数据量,同时也为查询和检索视频提供了一个组织框架。针对现有关键帧提取算法存在的特征选取单一、阈值选择困难和视频类型局限性等问题,提出了一种基于多特征相似度曲线最大曲率点检测的关键帧提取方法。算法利用多特征融合的相似性度量来捕获视频内容的显著变化,弥补了单一特征对视频内容描述不充分的不足,且基于滑动窗口的检测算法无需阈值选择,可以实时、局部地提取关键帧,解决了传统算法计算量大、通用性差的问题。最后通过实验利用一种保真度评估标准验证了该算法的有效性。  相似文献   

2.
基于改进分块颜色特征和二次提取的关键帧提取算法   总被引:1,自引:0,他引:1  
刘华咏  李涛 《计算机科学》2015,42(12):307-311
关键帧提取技术是视频摘要、检索、浏览和理解中的一项重要技术。目前关键帧提取算法存在一些问题,例如特征选择复杂、阈值选择难、自适应性不强等。为了更有效地提取视频关键帧,提出了一种基于改进分块颜色特征和二次提取的关键帧提取算法。首先,对视频帧进行等面积矩形环划分;其次,提取矩形环的HSV量化颜色特征,并由帧图像中心到外依次减小每个矩形环特征的权值以突出图像主体部分;然后,依据相邻视频帧间特征的显著性变化初步选取关键帧;最后,依据初次提取的关键帧在视频中的位置间隔大小进行二次提取优化关键帧。实验结果表明,该方法具有良好的适应性,同时能够有效避免因镜头有突然闪光或物体快速运动而提取过多的关键帧,最终提取的关键帧能够比较全面准确地表达视频内容。  相似文献   

3.
针对传统视频摘要方法往往没有考虑时序信息以及提取的视频特征过于复杂、易出现过拟合现象的问题,提出一种基于改进的双向长短期记忆(BiLSTM)网络的视频摘要生成模型。首先,通过卷积神经网络(CNN)提取视频帧的深度特征,而且为了使生成的视频摘要更具多样性,采用BiLSTM网络将深度特征识别任务转换为视频帧的时序特征标注任务,让模型获得更多上下文信息;其次,考虑到生成的视频摘要应当具有代表性,因此通过融合最大池化在降低特征维度的同时突出关键信息以淡化冗余信息,使模型能够学习具有代表性的特征,而特征维度的降低也减少了全连接层需要的参数,避免了过拟合问题;最后,预测视频帧的重要性分数并转换为镜头分数,以此选取关键镜头生成视频摘要。实验结果表明,在标准数据集TvSum和SumMe上,改进后的视频摘要生成模型能提升生成视频摘要的准确性;而且它的F1-score值也比基于长短期记忆(LSTM)网络的视频摘要模型DPPLSTM在两个数据集上分别提高1.4和0.3个百分点。  相似文献   

4.
改进的蚁群算法与凝聚相结合的关键帧提取   总被引:1,自引:0,他引:1  
关键帧提取技术,对基于内容的视频检索有着重要的作用。为了从不同类型的视频中有效地提取关键帧,提出了改进的蚁群算法与凝聚相结合的关键帧提取算法。该方法提取视频中每帧的颜色与边缘特征向量,利用改进的蚁群算法自组织地对颜色和边缘特征向量进行聚类,得到初始聚类。通过凝聚算法对初始聚类进行优化,得到最终聚类。提取每类中距离聚类中心最近的向量,将其对应帧作为关键帧。实验结果表明:使用该算法提取的关键帧不仅可以充分表达出视频的主要内容,而且可以根据视频内容的变化提取出适当数量的关键帧。  相似文献   

5.
将视频切分为镜头是视频内容分析及基于内容的视频检索和浏览的第一步。针对视频镜头边界检测,提出了一种基于特征跟踪的新算法。该算法从镜头起始帧中提取出一组角点特征,然后在后续帧中基于Kalman滤波进行特征窗跟踪,最后根据对应特征窗内的像素特征变化规律,得到镜头边界检测所需的测度,判断镜头切换的性质和渐变镜头的起止时间。实验结果表明该算法运算复杂度低,且具有较强的鲁棒性。  相似文献   

6.
视频数据的急剧增加,给视频的浏览、存储、检索等应用带来一系列问题和挑战,视频摘要正是解决此类问题的一个有效途径。针对现有视频摘要算法基于约束和经验设置构造目标函数,并对帧集合进行打分带来的不确定和复杂度高等问题,提出一个基于排序学习的视频摘要生成方法。该方法把视频摘要的提取等价为视频帧对视频内容表示的相关度排序问题,利用训练集学习排序函数,使得排序靠前的是与视频相关度高的帧,用学到的排序函数对帧打分,根据分数高低选择关键帧作为视频摘要。另外,与现有方法相比,该方法是对帧而非帧集合打分,计算复杂度显著降低。通过在TVSum50数据集上测试,实验结果证实了该方法的有效性。  相似文献   

7.
视频关键帧提取是视频摘要的重要组成部分,关键帧提取的质量直接影响人们对视频的认识。传统的关键帧提取算法大多都是基于视觉相关的提取算法,即单纯提取底层信息计算其相似度,忽略语义相关性,容易引起误差,同时也造成了一定的冗余。对此提出了一种基于语义的视频关键帧提取算法。该算法首先使用层次聚类算法对视频关键帧进行初步提取;然后结合语义相关算法对初步提取的关键帧进行直方图对比,去掉冗余帧,确定视频的关键帧;最后与其他算法比较,所提算法提取的关键帧冗余度相对较小。  相似文献   

8.
针对现有视频关键帧提取算法对运动类视频中运动特征提取不准导致的漏检和误检问题,提出一种融合多路特征和注意力机制的强化学习关键帧提取算法。该算法首先通过人体姿态识别算法对视频序列进行人体骨骼关节点提取;然后使用S-GCN和ResNet50网络分别提取视频序列中的运动特征和静态特征,并将两者进行加权融合;最后应用注意力机制对特征序列进行视频帧重要性计算,并利用强化学习进行关键帧的提取和优化。实验结果表明,该算法能较好地解决运动类视频在关键帧提取中出现的漏误检问题,在检测含有关键性动作的视频帧时表现较好,算法准确率高、稳定性强。  相似文献   

9.
针对目前深度学习领域人体姿态估计算法计算复杂度高的问题,提出了一种基于光流的快速人体姿态估计算法.在原算法的基础上,首先利用视频帧之间的时间相关性,将原始视频序列分为关键帧和非关键帧分别处理(相邻两关键帧之间的图像和前向关键帧组成一个视频帧组,同一视频帧组内的视频帧相似),仅在关键帧上运用人体姿态估计算法,并通过轻量级光流场将关键帧识别结果传播到其他非关键帧.其次针对视频中运动场的动态特性,提出一种基于局部光流场的自适应关键帧检测算法,以根据视频的局部时域特性确定视频关键帧的位置.在OutdoorPose和HumanEvaI数据集上的实验结果表明,对于存在背景复杂、部件遮挡等问题的视频序列中,所提算法较原算法检测性能略有提升,检测速度平均可提升89.6%.  相似文献   

10.
关键帧提取是基于内容的视频摘要生成中的一个重要技术.首次引入仿射传播聚类方法来提取视频关键帧.该方法结合两个连续图像帧的颜色直方图交,通过消息传递,实现数据点的自动聚类.并与k means和SVC(support vector clustering)算法的关键帧提取方法进行了比较.实验结果表明,AP(Affinity Propagation)聚类的关键帧提取速度快,准确性高,生成的视频摘要具有良好的压缩率和内容涵盖率.  相似文献   

11.
已有的压缩感知视频复原算法因过平滑效应难以保留视频帧的边缘与细节信息,对此提出一种基于混合稀疏性测量的压缩采样视频复原算法。编码端将视频序列分为关键帧与非关键帧,并使用相同的感知矩阵对帧的每块进行采样。解码端则设计了考虑局部稀疏性与全局稀疏性的混合稀疏性测量方案,并将其作为压缩感知视频复原问题的正则项;然后,通过分裂Bregman迭代算法对关键帧进行解码,并考虑视频帧间的时间相关性对非关键帧进行细化处理。基于多组仿真实验的结果表明,本算法获得了较好的视频复原精度,并具有理想的计算时间性能。  相似文献   

12.
For the traditional method to extract the surveillance video key frame, there are problems of redundant information, substandard representative content and other issues. A key frame extraction method based on motion target detection and image similarity is proposed in this paper. This method first uses the ViBe algorithm fusing the inter-frame difference method to divide the original video into several segments containing the moving object. Then, the global similarity of the video frame is obtained by using the peak signal to noise ratio, the local similarity is obtained through the SURF feature point, and the comprehensive similarity of the video image is obtained by weighted fusion of them. Finally, the key frames are extracted from the critical video sequence by adaptive selection threshold. The experimental results show that the method can effectively extract the video key frame, reduce the redundant information of the video data, and express the main content of the video concisely. Moreover, the complexity of the algorithm is not high, so it is suitable for the key frame extraction of the surveillance video.  相似文献   

13.
针对现有关键帧提取算法存在的计算量大、阈值选择困难、视频类型受限等问题, 提出了一种基于图像主色彩的视频关键帧提取方法。该方法利用基于八叉树结构的色彩量化算法提取图像主色彩特征,通过计算颜色特征的相似度实现镜头边界检测,最后采用K-均值算法对提取出的代表帧序列进行聚类,准确提取出指定数目的关键帧。实验结果表明,所提算法计算简单、空间耗费少,具有良好的通用性和适应性。  相似文献   

14.
目的 针对目标在跟踪过程中出现剧烈形变,特别是剧烈尺度变化的而导致跟踪失败情况,提出融合图像显著性与特征点匹配的目标跟踪算法。方法 首先利用改进的BRISK(binary robust invariant scalable keypoints)特征点检测算法,对视频序列中的初始帧提取特征点,确定跟踪算法中的目标模板和目标模板特征点集合;接着对当前帧进行特征点检测,并与目标模板特征点集合利用FLANN(fast approximate nearest neighbor search library)方法进行匹配得到匹配特征点子集;然后融合匹配特征点和光流特征点确定可靠特征点集;再后基于可靠特征点集和目标模板特征点集计算单应性变换矩阵粗确定目标跟踪框,继而基于LC(local contrast)图像显著性精确定目标跟踪框;最后融合图像显著性和可靠特征点自适应确定目标跟踪框。当连续三帧目标发生剧烈形变时,更新目标模板和目标模板特征点集。结果 为了验证算法性能,在OTB2013数据集中挑选出具有形变特性的8个视频序列,共2214帧图像作为实验数据集。在重合度实验中,本文算法能够达到0.567 1的平均重合度,优于当前先进的跟踪算法;在重合度成功率实验中,本文算法也比当前先进的跟踪算法具有更好的跟踪效果。最后利用Vega Prime仿真了无人机快速抵近飞行下目标出现剧烈形变的航拍视频序列,序列中目标的最大形变量超过14,帧间最大形变量达到1.72,实验表明本文算法在该视频序列上具有更好的跟踪效果。本文算法具有较好的实时性,平均帧率48.6帧/s。结论 本文算法能够实时准确的跟踪剧烈形变的目标,特别是剧烈尺度变化的目标。  相似文献   

15.
针对目前压缩域下提取视频关键帧的算法存在特征选取单一、提取的关键帧准确性不高、算法效率低的缺点,提出了压缩域下基于两次曲线曲率检测的关键帧提取算法。算法利用曲线上的高曲率点表示曲线的显著变化,并在此基础上利用压缩视频的固有特征,即离散余弦变换之后的AC系数和DC系数特征,构建特征相似度曲线,进而对曲线进行两次高曲率点检测并提取视频关键帧。实验表明,该算法能快速有效地实现关键帧的自动提取,并可以提高提取关键帧的查准率和查全率。  相似文献   

16.
基于旋转不变均衡局部二值模式,提出一种均衡摘要生成速度和摘要信息量的视频摘要算法。首先,使用预采样方法降低视频处理数据量,在此基础之上提取图像的局部二值模式特征;然后对两帧图像相似度进行分析,获取聚类数目。获取聚类数目之后,使用k均值算法对镜头关键帧进行聚类;最后,使用“重要度”函数评测聚类重要度,从“重要”聚类中选取聚类中心最近帧为摘要关键帧。实验结果表明,该算法生成的视频摘要在保证摘要实时性的同时,提高摘要的信息量,较好地表达了视频的内容。  相似文献   

17.
In this paper, we propose a robust block classification based semi-blind video watermarking algorithm using visual cryptography and SURF (Speed-Up Robust Features) features to enhance the robustness, stability, imperceptibility and real-time performance. A method of selecting the best frames in each shot and the best regions or blocks within best frames is proposed to avoid employing frame–by-frame method for generating owner’s share in order to enhance robustness as well as reducing time complexity. In our method, Owner’s share is generated using the classification of selected robust blocks within the chosen frames along with corresponding watermark information. In extraction process, the SURF features are employed to match the feature points of selected frames with all frames to detect selected frames. Moreover, we resynchronize the embedded regions from distorted video to original sequence using SURF feature points matching. Afterwards, based on these matched feature points, rotation and scaling parameters are estimated next, selected blocks are retrieved using side information being stored eventually, watermark information is reconstructed successfully. Selecting Best frames, best regions, and employing surf features make our method to be highly robust against various kinds of attacks including image processing attacks, geometrical attacks and temporal attacks. Experimental results confirm the superiority of our scheme in case of being applicable in the real world, enhancing robustness and exploiting idea imperceptibility, over previous related methods.  相似文献   

18.
关键帧可以有效减少视频索引的数据量,是分析和检索视频的关键。在提取关键帧过程中,为了解决传统聚类算法对初始参数敏感的问题,提出了一种改进的基于视频聚类的关键帧提取算法。首先,提取视频帧的特征,依据帧间相似度,对视频帧进行层次聚类,并得到初始聚类结果;接着使用K-means算法对初始聚类结果进行优化,最后提取聚类的中心作为视频的关键帧。实验结果表明该方法可以大幅提高关键帧的准确率和查全率,能较好地表达视频的主要内容。  相似文献   

19.
基于联合直方图的帧间相似性在关键帧提取中存在漏检问题,而基于边缘特征的方法,虽然效果较好,但在计算复杂度方面比较高。本文结合这两种方法的优点进行两阶段的提取方法,即先用基于联合直方图的方法提取视频的候选关键帧,再用基于边缘特征的方法进行二次提取。实验结果表明,该方法提取出来的关键帧有较好的代表性,冗余度底。  相似文献   

20.
基于群体智能与K-均值相结合的关键帧提取*   总被引:2,自引:1,他引:1  
为了从不同类型的视频中有效地提取关键帧,提出基于群体智能与K-均值相结合的关键帧提取方法。该方法首先提取视频的颜色特征向量,利用基于群体智能的聚类方法自组织地对颜色向量进行聚类,得到初始聚类;然后通过K-均值对初始聚类进行优化并加快算法收敛,得到最终聚类;最后,提取每类中距离聚类中心最近的向量对应帧并将其作为关键帧。实验表明,该算法能有效地提取出代表视频内容的关键帧,对镜头的相似性和连续性反映准确。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号