共查询到17条相似文献,搜索用时 171 毫秒
1.
一种基于子镜头聚类的情节代表帧选取方法 总被引:1,自引:0,他引:1
情节代表帧选取方法是视频语义分析和基于内容的视频检索的很重要的方法。代表帧的使用大大减少了视频索引的数据量,同时也为视频摘要和检索提供了一种快捷的方法。该文在子镜头的关键帧提取方法基础上,利用模糊C-均值聚类算法,实现了一种基于子镜头聚类的情节代表帧选取方法。实验证明该方法计算简单,可以较好地代表视频情节。 相似文献
2.
视频数据具有一定的隐舍层次性,因此在对视频进行镜头分割后,可以利用模糊聚类算法依据相似度提取关键帧和关键镜头,对视频内容进行抽象概括,并以此时镜头进行检索.本文用非监督学习方法中的在线聚类算法自动提取镜头的关键帧,以相似方法对关键帧进行聚类以自动提取关键镜头,并对分类结果进行自我调整.将上述方法实现并用于镜头检索,获得了良好的检索结果,并减少了经验对聚类的影响,而且较好地表示了视频内容的层次性. 相似文献
3.
4.
结合互信息量与模糊聚类的关键帧提取方法 总被引:1,自引:0,他引:1
关键帧是描述一个镜头的关键图像帧,它通常反映一个镜头的主要内容,因此,关键帧提取技术是视频分析和基于内容的视频检索的基础。提出了一种结合互信息量与模糊聚类的关键帧提取方法,一方面通过互信息量算法对视频片段进行镜头检测可以保持视频的时间序列和动态信息,另一方面通过模糊聚类使镜头中的关键帧能很好的反映视频镜头的主要内容。最后构建了一套针对MPEG-4视频的关键帧提取系统,通过实验证明该系统提取的关键帧,可以较好地代表视频内容,并且有利于实现视频分析和检索。 相似文献
5.
一种基于核聚类的关键帧提取方法 总被引:4,自引:0,他引:4
为了在视频数据库中提供有效的视频检索和浏览功能,必须用简明的方式表示视频的内容。关键帧是对视频镜头的简洁表示,关键帧提取已成为视频检索的一个重要研究方向。文中提出了一种基于核聚类的视频关键帧提取方法,它通过对视频提取颜色特征.并将这些特征作为样本映射到高维特征空间之后,在特征空间中进行聚类,使原来没有显现的特征突现出来,自动将内容相似的样本归为同类,每一类可取一个样本代表其内容,这样的样本即为关键帧。实验结果表明这种方法可以较好地概括视频内容。 相似文献
6.
为了在视频数据库中提供有效的视频检索和浏览功能,必须用简明的方式表示视频的内容.关键帧是对视频镜头的简洁表示,关键帧提取已成为视频检索的一个重要研究方向.文中提出了一种基于核聚类的视频关键帧提取方法,它通过对视频提取颜色特征,并将这些特征作为样本映射到高维特征空间之后,在特征空间中进行聚类,使原来没有显现的特征突现出来,自动将内容相似的样本归为同类,每一类可取一个样本代表其内容,这样的样本即为关键帧.实验结果表明这种方法可以较好地概括视频内容. 相似文献
7.
检索一段视频中出现的人物并进行人物归类具有重要的研究意义和实用价值.本文提出一种基于多特征的视频人物检索聚类算法:先用一种结合人脸检测和物体跟踪的算法检测镜头人物,并提取人物衣服区域颜色以及声音作为人物特征,再用一种无监督模糊聚类方法对人物进行聚类,最后利用声音特征对聚类结果进行修正.该方法适用于人物数未知的条件下进行无监督的人物聚类.不同类型视频的试验证明该方法有效而实用. 相似文献
8.
该文分析了现有的对帧间特征差进行阈值比较的镜头分割方法,以及通过颜色空间和可调时间阈值进行视频聚类方法的不准确性,针对教案视频中大量文字内容体现出的特有的纹理特征,提出了使用基于灰度级共生矩阵纹理特征的C均值模糊聚类算法进行教案视频镜头分割.算法选取灰度级共生矩阵统计量之一的惯性矩作为度量帧间相似性的特征值,并根据教案视频中手写操作的特点调整特征向量,以此作为样本数据点进行模糊聚类.实验结果显示这种方法对于教案视频镜头的分割具有较好效果. 相似文献
9.
基于镜头关键帧集的视频场景聚类的研究 总被引:3,自引:0,他引:3
在数字视频的分析、浏览、检索中,镜头已难以满足现有的需要。场景是一组包含有内容相关的若干镜头的集合,在一定程度上满足了数字视频的分析、浏览、检索的需要。文章首先使用了X2直方图匹配的计算方法,结合直方图的两次判断法,进行突变和渐变镜头边界的检测;然后对镜头内非相邻帧间距离经过阈值判断提取关键帧集;文章提出了基于镜头关键帧计算两个关键帧集之间距离的最小值作为所计算镜头之间的距离的算法;最后运用镜头之间的距离进行镜头的聚类产生场景,给出了典型的实验结果,表明该算法对视频场景的聚类有较好的性能。 相似文献
10.
视频摘要是视频内容的一种压缩表示方式。为了能够更好地浏览视频,提出了一种根据浏览或检索的粒度不同来建立两种层次视频摘要(镜头级和场景级)的思想,并给出了一种视频摘要生成方法:首先用一种根据内容变化自动提取镜头内关键帧的方法来实现关键帧的提取;继而用一种改进的时间自适应算法通过镜头的组合来得到场景;最后在场景级用最小生成树方法提取代表帧。由于关键帧和代表帧分别代表了它们所在镜头和场景的主要内容,因此它们的序列就构成了视频总结。一些电影视频片段检验的实验结果表明,这种生成方法能够较好地提供粗细两种粒度的视频内容总结。 相似文献
11.
12.
13.
The latest video coding standard High Efficiency Video Coding (HEVC) can achieve much higher coding efficiency than previous video coding standards. Particularly, by exploiting the hierarchical B-picture prediction structure, temporal redundancy among neighbor frames is eliminated remarkably well. In practice, videos available to consumers usually contain many repeated shots, such as TV series, movies, and talk shows. According to our observations, when these videos are encoded by HEVC with the hierarchical B-picture structure, the temporal correlation in each shot is well exploited. However, the long-term correlation between repeated shots has not been used. We propose a long-term prediction (LTP) scheme to use the long-term temporal correlation between correlated shots in a video. The long-term reference (LTR) frames of a source video are chosen by clustering similar shots and extracting the representative frames, and a modified hierarchical B-picture coding structure based on an LTR frame is introduced to support long-term temporal prediction. An adaptive quantization method is further designed for LTR frames to improve the overall video coding efficiency. Experimental results show that up to 22.86% coding gain can be achieved using the new coding scheme. 相似文献
14.
The purpose of video segmentation is to segment video sequence into shots where each shot represents a sequence of frames having the same contents, and then select key frames from each shot for indexing. Existing video segmentation methods can be classified into two groups: the shot change detection (SCD) approach for which thresholds have to be pre-assigned, and the clustering approach for which a prior knowledge of the number of clusters is required. In this paper, we propose a video segmentation method using a histogram-based fuzzy c-means (HBFCM) clustering algorithm. This algorithm is a hybrid of the two approaches aforementioned, and is designed to overcome the drawbacks of both approaches. The HBFCM clustering algorithm is composed of three phases: the feature extraction phase, the clustering phase, and the key-frame selection phase. In the first phase, differences between color histogram are extracted as features. In the second phase, the fuzzy c-means (FCM) is used to group features into three clusters: the shot change (SC) cluster, the suspected shot change (SSC) cluster, and the no shot change (NSC) cluster. In the last phase, shot change frames are identified from the SC and the SSC, and then used to segment video sequences into shots. Finally, key frames are selected from each shot. Simulation results indicate that the HBFCM clustering algorithm is robust and applicable to various types of video sequences. 相似文献
15.
16.
17.
视频聚类是视频索引和检索的重要组成部分.本文针对镜头已分割好的视频如何提取更高语义层次的场景,考虑帧图像间以帧分块的局部似然比特征和小波变换的全局边缘特征相结合的综合相似性度量,利用视频编辑的一种常用特征及代表性镜头的选取原则,给出了一种新的语义场景的提取算法.数值实验表明该算法对基于对话类的视频类型有很好的场景提取效果,与WBS(Window-based Sweep Algorithm)算法相比,查全率和查准率分别提高了8.7%和28.4%. 相似文献