首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 125 毫秒
1.
提出一种基于镜头标记与动态滑动窗口的视频摘要生成方法。对视频进行镜头分割,利用帧差累积法将镜头分成静态镜头和动态镜头并标记。运用动态滑动窗口,对标记镜头进行归类。提取集合镜头的关键帧,抽取冗余少、涵盖内容丰富的镜头帧,组合成视频摘要。实验结果表明,该方法能快速准确地生成视频摘要。  相似文献   

2.
丁洪丽  陈怀新 《计算机工程》2009,35(13):225-227
针对含有运动目标的视频采用单一阈值提取关键帧时易出现漏检或冗余的情况,提出基于镜头内容变化率的关键帧提取算法。根据镜头相邻帧差和与镜头平均邻帧差的变化特点定义镜头内容变化率,由该变化率确定关键帧提取的高、低阈值,实现自动提取一到多帧关键帧。实验结果表明,该变化率对视频帧的内容变化有较好的描述能力,提取的关键帧具有很好的代表性。  相似文献   

3.
镜头边界检测是基于内容的视频检索中的关键技术,提出一种利用TextTiling方法来识别视频镜头边界的算法。通过滑动窗口对视频进行初步切割,利用主成分分析将视频帧投影到特征子空间,并在投影空间上计算相邻帧间距离,再根据相邻窗口之间的深度值确定视频镜头边界。针对TREC-2001视频测试数据集的实验结果显示,该算法检测镜头边界的平均查全率和平均查准率分别为89%和96.5%。  相似文献   

4.
一种改进的视频关键帧提取算法研究   总被引:2,自引:0,他引:2  
视频镜头分割和关键帧提取是基于内容的视频检索的核心问题.提出了一种改进的关键帧提取算法,其为视频检索奠定了基础,镜头分割部分采用改进直方图方法及基于像素方法的综合方法.首先,通过结合直方图交集及非均匀分块加权的改进直方图方法,根据视频内容将视频分割为镜头;然后,利用基于像素的帧差法,对得到的检测镜头进行二次检测,优化检测结果;最后,在HSV颜色空间的基础上,计算每个镜头内每帧的图像熵,从而确定关键帧序列.实验结果表明,提出的改进算法所得到的关键帧结构紧凑且分布均匀.  相似文献   

5.
一个自动阈值选择的镜头检测算法   总被引:5,自引:0,他引:5  
对现有视频分割工作进行了简要回顾 ,并在已有的 Twin Comparison方法基础上 ,提出了一种新的象素域镜头检测算法 .该算法使用了一个滑动窗口进行镜头边界识别 ,仅需要一趟视频解码和扫描 ,提高了算法的速度 ,这样该算法可以应用于实时视频流的镜头检测 .同时该算法够根据滑动窗口中的帧间颜色直方图差异值来动态计算用于识别镜头变换的局部阈值 ,提高了镜头边界检测算法的精度 .实验结果显示 ,文中所述方法在速度和精确度上都优于 TwinComparison算法  相似文献   

6.
文章提出了一种基于k均值聚类的视频关键帧提取算法。该算法在视频的镜头分割算法之上,通过层次聚类对视频内容进行初步划分,之后结合k均值聚类算法对初步提取的关键帧进行直方图特征对比去掉冗余帧,最终确定视频的关键帧序列。经过大量的实验数据证明,该算法能够提取出冗余度较低、代表性较强的关键帧,一定程度上为视频关键帧提取提供了有效的方法。  相似文献   

7.
基于运动补偿和自适应双闭值的镜头分割   总被引:1,自引:0,他引:1  
镜头分割是视频检索的结构化基础.提出一种高效的镜头分割算法,首先针对视频中的图像帧序列间存在一定的运动,对视频中的图像帧采用运动矢量场自适应搜索技术进行分块运动矢量估计,然后进行运动补偿,接着在此基础上计算两帧间的像素值不变点数,并基于滑动窗口获取局部自适应的双阈值,最后基于自适应双阈值间的比较检测切变和渐变.实验结果证实,该算法不仅能够有效地检测出镜头的切变和渐变,而且对运动具有较强的鲁棒性.  相似文献   

8.
提出了一种基于K-L变换和聚类的视频摘要方法。首先通过对视频帧原始RGB空间进行K-L变换,得到由主轴构成的参数模型;其次运用滑动窗口法进行镜头检测;再次,根据最邻近规则对每个镜头的视频帧进行聚类;最后通过后处理优化聚类结果,提取最靠近聚类中心的帧作为关键帧,组成视频摘要。以新闻视频为例,实验结果证明了算法的有效性。  相似文献   

9.
针对现有关键帧提取算法存在的计算量大、阈值选择困难、视频类型受限等问题, 提出了一种基于图像主色彩的视频关键帧提取方法。该方法利用基于八叉树结构的色彩量化算法提取图像主色彩特征,通过计算颜色特征的相似度实现镜头边界检测,最后采用K-均值算法对提取出的代表帧序列进行聚类,准确提取出指定数目的关键帧。实验结果表明,所提算法计算简单、空间耗费少,具有良好的通用性和适应性。  相似文献   

10.
提出了一种危险源监控视频关键帧提取算法。根据危险源监控视频的特点,利用I帧DC图的比较,减少危险源监控视频的冗余信息,获取有效视频;利用基于镜头的压缩域关键帧提取方法提取帧。实验结果表明,该方法能有效进行危险源监控视频关键帧的提取。  相似文献   

11.
传统的场景分割方法中往往通过比较关键帧来测量镜头间的相似度而忽略了镜头内的时域信息 ,针对这种缺陷提出一种基于主色跟踪和质心运动的视频场景分割的方法。首先 ,在量化的 HSV空间中 ,利用主色跟踪所得镜头的时间信息结合帧颜色直方图得到镜头的主色直方图 ,并且引入镜头质心特征向量的概念 ,通过其与帧向量的差异性获得镜头的运动信息 ;然后将所测得的镜头相似度用在改进的双向滑动窗口法中检测场景。实验结果验证了该方法的有效性。  相似文献   

12.
针对如何在镜头基础上进行聚类,以得到更高层次的场景问题,提出了一个基于语义的场景分割算法。该算法首先将视频分割为镜头,并提取镜头的关键帧。然后计算关键帧的颜色直方图和MPEG-7边缘直方图,以形成关键帧的特征;接着利用镜头关键帧的颜色和纹理特征对支持向量机(SVM)进行训练来构造7个基于SVM对应不同语义概念的分类器,并利用它们对要进行场景分割的视频镜头关键帧进行分类,以得到关键帧的语义。并根据关键帧包含的语义概念形成了其语义概念矢量,最后根据语义概念矢量通过对镜头关键帧进行聚类来得到场景。另外.为提取场景关键帧,还构建了镜头选择函数,并根据该函数值的大小来选择场景的关键帧。实验结果表明,该场景分割算法与Hanjalic的方法相比,查准率和查全率分别提高了34.7%和9.1%。  相似文献   

13.
提出一种基于全局场景特征在视频序列中寻找频繁镜头集合,并通过局部语义特征精确定位视频场景边界的视频场景分割方法。首先对分析视频进行高精度镜头分割,选取具有代表性的镜头关键帧。然后提取各镜头关键帧的全局场景特征和局部特征,并利用局部特征聚类得到的视觉词对各个镜头关键帧进行语义标注。接下来计算基于全局场景特征的镜头间相关性,结合视频场景的概念和特性,在镜头关键帧序列中寻找局部频繁出现的相关性高的镜头集合,粗略定位视频场景位置。最后利用镜头关键帧的语义标注特征精确定位视频场景边界。实验证明该方法能够准确、有效地检测并定位到大部分视频场景。  相似文献   

14.
随着网络和多媒体技术的不断发展,基于内容的多媒体信息检索技术变得越来越重要.同成熟的文本检索技术相比,视频检索还处在研究和探索阶段.视频检索的一个有效方法是将无结构的视频节目进行镜头分割,根据每个镜头的关键帧对视频建立索引.因此,镜头分割是基于内容的视频检索的基本步骤,在各种类型的镜头检测算法中,叠化镜头是很难检测的.根据叠化(dissolve)镜头内部预测帧预测误差能量和运动矢量分布特点,提出一种在压缩域中分割叠化镜头的新算法.与公开发表的同类算法相比,它具有以下优点:工作在压缩域上、速度快、鲁棒性好、精度更高.  相似文献   

15.
基于颜色空间的自适应阈值镜头分割算法   总被引:1,自引:0,他引:1  
镜头分割是基于内容的视频检索的关键步骤,它会直接影响到视频检索的效果。文中介绍了几种常用的镜头分割方法,并且根据YUV颜色空间的各分量可分离的特点,提出了一种改进的基于YUV颜色空间的自适应阈值镜头分割方法。在突变镜头检测模块,为了消除由噪声带来的误检,加入了帧差值比法。在渐变镜头检测模块,使用了滑动窗口值方法。镜头分割的难点是渐变检测,算法在渐变检测上也取得了不错的成果。经过大量实验结果表明,改进的算法对镜头分割有很好的实验效果,算法计算复杂度低,易于实现。  相似文献   

16.
根据维吾尔文字独有的基线特性,提出了一种新的视频维吾尔文字幕帧提取方法,首先进行维吾尔文字幕帧的读取,然后根据相邻帧之间的像素帧间差异和区域像素统计对视频段作初步镜头关键帧的检测,之后对检测到的镜头关键帧作区域处理,检测视频帧中是否具有基线特性,再根据基线设置阈值,最后提取出代表视频语义的主要视频帧。实验证明:该提取方法简洁有效,其字幕帧提取率平均可达到85%以上。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号