首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 390 毫秒
1.
视频摘要是视频内容的一种压缩表示方式,视频摘要的使用大大减少了视频索引的数据量,同时也为视频检索提供了帮助, 因此对视频摘要的研究已成为视频应用领域十分活跃的课题.为了能够更好地浏览视频.该文提出了一种新的基于关键帧的视频摘要生成算法,该算法首先通过检测镜头,然后用基于主成分分析法自适应的提取镜头关键帧,最后将镜头关键帧按时序排列在一起组成视频摘要.试验表明,该算法建立的视频摘要能较好地反映原视频的内容.  相似文献   

2.
视频数据具有一定的隐舍层次性,因此在对视频进行镜头分割后,可以利用模糊聚类算法依据相似度提取关键帧和关键镜头,对视频内容进行抽象概括,并以此时镜头进行检索.本文用非监督学习方法中的在线聚类算法自动提取镜头的关键帧,以相似方法对关键帧进行聚类以自动提取关键镜头,并对分类结果进行自我调整.将上述方法实现并用于镜头检索,获得了良好的检索结果,并减少了经验对聚类的影响,而且较好地表示了视频内容的层次性.  相似文献   

3.
为了提高传统IC卡消费的安全性,提出将视频监控技术应用到IC卡消费中,在消费时视频监控记录消费的全过程,并与消费数据建立联系.对监控采集到的视频进行镜头检测,提取关键帧,计算特征值,关键帧聚类,并与视频建立索引.用户可以通过消费数据或提交图像进行视频检索,在一定程度上保证了消费的安全性.系统采用基于RIA的Flex技术...  相似文献   

4.
结合互信息量与模糊聚类的关键帧提取方法   总被引:1,自引:0,他引:1  
关键帧是描述一个镜头的关键图像帧,它通常反映一个镜头的主要内容,因此,关键帧提取技术是视频分析和基于内容的视频检索的基础。提出了一种结合互信息量与模糊聚类的关键帧提取方法,一方面通过互信息量算法对视频片段进行镜头检测可以保持视频的时间序列和动态信息,另一方面通过模糊聚类使镜头中的关键帧能很好的反映视频镜头的主要内容。最后构建了一套针对MPEG-4视频的关键帧提取系统,通过实验证明该系统提取的关键帧,可以较好地代表视频内容,并且有利于实现视频分析和检索。  相似文献   

5.
用无监督模糊聚类方法进行视频内容的分层表示   总被引:3,自引:0,他引:3  
为了在视频数据库中提供有效的视频检索和浏览功能,必须用简明的方式表示视频的内容。由于视频数据具有层次性结构,在镜头边界检测后,可以利用聚类方法按不同的相似性尺度选取代表帧和代表镜头,对视频内容进行抽象概括的表示。文中提出了一种基于无监督模糊聚类对视频内容进行分层表示的算法,它用无监督聚类方法选取镜头的代表帧,并用模糊聚类算法对代表帧进行层次化聚类以选取代表镜头和代表场景。实验结果表明这种方法可以较好地概括视频的内容,方便用户检索和浏览。  相似文献   

6.
视频数据具有隐含层次性,可以利用模糊聚类算法依据相似度提取关键帧和关键镜头,对视频内容进行抽象概括,并以此对镜头进行检索.我们将上述方法实现并用于镜头检索,获得了良好的检索结果,并减少了经验对聚类的影响,而且较好地表示了视频内容的层次性.  相似文献   

7.
为了在视频数据库中提供有效的视频检索和浏览功能,必须用简明的方式表示视频的内容.关键帧是对视频镜头的简洁表示,关键帧提取已成为视频检索的一个重要研究方向.文中提出了一种基于核聚类的视频关键帧提取方法,它通过对视频提取颜色特征,并将这些特征作为样本映射到高维特征空间之后,在特征空间中进行聚类,使原来没有显现的特征突现出来,自动将内容相似的样本归为同类,每一类可取一个样本代表其内容,这样的样本即为关键帧.实验结果表明这种方法可以较好地概括视频内容.  相似文献   

8.
一种基于子镜头聚类的情节代表帧选取方法   总被引:1,自引:0,他引:1  
情节代表帧选取方法是视频语义分析和基于内容的视频检索的很重要的方法。代表帧的使用大大减少了视频索引的数据量,同时也为视频摘要和检索提供了一种快捷的方法。该文在子镜头的关键帧提取方法基础上,利用模糊C-均值聚类算法,实现了一种基于子镜头聚类的情节代表帧选取方法。实验证明该方法计算简单,可以较好地代表视频情节。  相似文献   

9.
基于镜头关键帧集的视频场景聚类的研究   总被引:3,自引:0,他引:3  
在数字视频的分析、浏览、检索中,镜头已难以满足现有的需要。场景是一组包含有内容相关的若干镜头的集合,在一定程度上满足了数字视频的分析、浏览、检索的需要。文章首先使用了X2直方图匹配的计算方法,结合直方图的两次判断法,进行突变和渐变镜头边界的检测;然后对镜头内非相邻帧间距离经过阈值判断提取关键帧集;文章提出了基于镜头关键帧计算两个关键帧集之间距离的最小值作为所计算镜头之间的距离的算法;最后运用镜头之间的距离进行镜头的聚类产生场景,给出了典型的实验结果,表明该算法对视频场景的聚类有较好的性能。  相似文献   

10.
一种层次的电影视频摘要生成方法   总被引:1,自引:0,他引:1       下载免费PDF全文
合理地组织视频数据对于基于内容的视频分析和检索有着重要的意义。提出了一种基于运动注意力模型的电影视频摘要生成方法。首先给出了一种基于滑动镜头窗的聚类算法将相似的镜头组织成为镜头类;然后根据电影视频场景内容的发展模式,在定义两个镜头类的3种时序关系的基础上,提出了一种基于镜头类之间的时空约束关系的场景检测方法;最后利用运动注意力模型选择场景中的重要镜头和代表帧,由选择的代表帧集合和重要镜头的关键帧集合建立层次视频摘要(场景级和镜头级)。该方法较全面地涵盖了视频内容,又突出了视频中的重要内容,能够很好地应用于电影视频的快速浏览和检索。  相似文献   

11.
12.
吴渝  贾学鹏  李红波 《计算机应用》2008,28(12):3084-3088
网络多媒体的迅猛发展和普及使得对海量视频信息进行快速和低成本管理的需求日益迫切,而关键帧可以大大减少视频索引的数据量,同时也为查询和检索视频提供了一个组织框架。针对现有关键帧提取算法存在的特征选取单一、阈值选择困难和视频类型局限性等问题,提出了一种基于多特征相似度曲线最大曲率点检测的关键帧提取方法。算法利用多特征融合的相似性度量来捕获视频内容的显著变化,弥补了单一特征对视频内容描述不充分的不足,且基于滑动窗口的检测算法无需阈值选择,可以实时、局部地提取关键帧,解决了传统算法计算量大、通用性差的问题。最后通过实验利用一种保真度评估标准验证了该算法的有效性。  相似文献   

13.
数字图书馆与多媒体数据库的检索技术   总被引:8,自引:0,他引:8  
讨论了数字图书馆中多媒体数据库的索引问题,特别讨论了多媒体数据中视频数据的检索系统-基于内容的视频检索系统。介绍了基于颜色特征、形状、模型和压缩域的镜头切分算法,以及关于颜色、纹理、形状、运动特征等特征信息提取核心技术。  相似文献   

14.
针对现有关键帧提取算法存在的计算量大、阈值选择困难、视频类型受限等问题, 提出了一种基于图像主色彩的视频关键帧提取方法。该方法利用基于八叉树结构的色彩量化算法提取图像主色彩特征,通过计算颜色特征的相似度实现镜头边界检测,最后采用K-均值算法对提取出的代表帧序列进行聚类,准确提取出指定数目的关键帧。实验结果表明,所提算法计算简单、空间耗费少,具有良好的通用性和适应性。  相似文献   

15.
关键帧可以有效减少视频索引的数据量,是分析和检索视频的关键。在提取关键帧过程中,为了解决传统聚类算法对初始参数敏感的问题,提出了一种改进的基于视频聚类的关键帧提取算法。首先,提取视频帧的特征,依据帧间相似度,对视频帧进行层次聚类,并得到初始聚类结果;接着使用K-means算法对初始聚类结果进行优化,最后提取聚类的中心作为视频的关键帧。实验结果表明该方法可以大幅提高关键帧的准确率和查全率,能较好地表达视频的主要内容。  相似文献   

16.
基于文字和图像信息提取视频关键帧   总被引:7,自引:0,他引:7  
关键帧提取是基于内容检索的一个重要的组成部分,所提取的关键帧的质量的好坏,直接影响检索的结果。该文介绍了目前几种较为典型的算法,并在对其进行分析比较的基础上,针对新闻视频提出了基于文字和图像信息提取关键帧的算法,取得了很好的效果,最后在结论中提出了综合运用音频、图像、文字和运动信息提取关键帧的层次化算法思想。  相似文献   

17.
基于内容的视频检索的关键帧提取   总被引:3,自引:0,他引:3  
关键帧提取是基于内容的视频检索中的一个重要技术。本文在总结前人的工作基础上,提出了一种利用视频帧之间互信息量算法来提取关键帧的方法。该方法结合两个连续图像帧的特征互信息量的变化关系来提取关键帧,并与视频聚类的关键帧提取方法进行了比较。实验结果表明,利用该方法提取的关键帧能较好地代表镜头内容且提取关键帧的速度比视频聚类的关键帧提取方法快。  相似文献   

18.
传统的场景分割方法中往往通过比较关键帧来测量镜头间的相似度而忽略了镜头内的时域信息 ,针对这种缺陷提出一种基于主色跟踪和质心运动的视频场景分割的方法。首先 ,在量化的 HSV空间中 ,利用主色跟踪所得镜头的时间信息结合帧颜色直方图得到镜头的主色直方图 ,并且引入镜头质心特征向量的概念 ,通过其与帧向量的差异性获得镜头的运动信息 ;然后将所测得的镜头相似度用在改进的双向滑动窗口法中检测场景。实验结果验证了该方法的有效性。  相似文献   

19.
Browsing video scenes is just the process to unfold the story scenarios of a long video archive, which can help users to locate their desired video segments quickly and efficiently. Automatic scene detection of a long video stream file is hence the first and crucial step toward a concise and comprehensive content-based representation for indexing, browsing and retrieval purposes. In this paper, we present a novel scene detection scheme for various video types. We first detect video shot using a coarse-to-fine algorithm. The key frames without useful information are detected and removed using template matching. Spatio-temporal coherent shots are then grouped into the same scene based on the temporal constraint of video content and visual similarity of shot activity. The proposed algorithm has been performed on various types of videos containing movie and TV program. Promising experimental results shows that the proposed method makes sense to efficient retrieval of video contents of interest.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号