首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
谭洁  吴玲达  应龙 《计算机应用研究》2009,26(10):3960-3962
针对动画视频与新闻视频、体育运动视频的不同特点,提出了一种适合动画视频的 技术。首先通过对动画视频的结构分析得到动画视频的可视特征与层次结构;然后根据动画视频内容的重要度来选取视频中的重要片段;最后通过粒度选择,按照时序方式组合得到故事板和缩略视频形式的视频 。实验表明该方法能有效地获得动画视频 。  相似文献   

2.
视频摘要技术研究*   总被引:2,自引:0,他引:2  
对视频摘要技术进行了研究,将视频摘要按其表现形式分为以标题、关键帧和故事板为代表的静态视频摘要以及以缩略视频为代表的动态视频摘要,并对其中涉及的关键技术进行了探讨,最后对视频摘要技术未来的发展方向进行了总结与展望。  相似文献   

3.
基于局部-空间模型的视频摘要研究与设计   总被引:1,自引:1,他引:0       下载免费PDF全文
王群  刘群  向明辉  吴渝 《计算机工程》2011,37(2):278-280
介绍视频摘要技术以及缩略视频的3类研究方法,提出一种基于局部-空间模型的视频摘要研究方法.通过对视频序列的帧内与帧间信息的分析得到关键帧,对提取出的关键帧进行双线性插值形成视频段,运用DirectShow开发软件的DES对视频段编辑融合成最终的动态视频摘要.实验结果表明,在不需要人工干预的情况下,自动生成的视频摘要不仅...  相似文献   

4.
视频摘要是以自动或半自动的方式对视频的结构和内容进行分析,从原视频中提取出有意义的部分,并将它们以某种方式进行组合,形成简洁的能够充分表现视频语义内容的视频概要。重点介绍了几个典型的视频摘要系统及其涉及到的一些关键技术,并对这些典型的视频摘要系统进行对比,最后对视频摘要技术进行总结与展望。  相似文献   

5.
视频摘要是时视频内容的一个简短的小结。本文介绍的视频摘要的基本概念、视频摘要的分类,并重点介绍了每一类视频摘要实现的关键技术。最后对目前的视频摘要技术作了小结.并展望了今后的发展方向。  相似文献   

6.
视频摘要是对视频内容的一个简短的小结。本文介绍的视频摘要的基本概念、视频摘要的分类,并重点介绍了每一类视频摘要实现的关键技术。最后对目前的视频摘要技术作了小结,并展望了今后的发展方向。  相似文献   

7.
众所周知 ,文本的摘要是对一篇文章的一个简短的小结 .随着对视频数据处理要求的不断提高 ,出现了类似的概念——视频摘要 ,同时也产生了视频摘要技术 .同文本摘要概念相似 ,视频摘要是对视频的一个简短的小结 .为了使人们对视频摘要有一个概略的了解 ,该文首先阐述了视频摘要的基本概念 ,同时简单介绍了视频摘要的应用 ,并在此基础上对视频摘要进行了分类 ;然后重点介绍了每一类视频摘要的实现技术——关键帧提取技术、多特征融合技术等 ;最后对目前视频摘要技术进行了小结 ,并展望了若干发展途径 .  相似文献   

8.
视频摘要技术综述   总被引:2,自引:0,他引:2       下载免费PDF全文
目的 类似于文本摘要,视频摘要是对视频内容的总结。为了合理地评估视频摘要领域的研究进展,正确导向视频摘要的继续研究,本文归纳总结视频摘要技术的主要研究方法和显著性成果,对视频摘要技术进行综述。方法 依据视频摘要的两个主要生成步骤:视频内容分析和摘要生成分别介绍视频摘要的主要研究方法。同时,分析了近5年视频摘要领域的研究状况,对视频摘要发展的新趋势:实时视频摘要和多视角视频摘要进行了阐述。最后,还对视频摘要的评价系统进行了分类总结。结果 对视频摘要进行综述,对摘要中的语义获取难题提出了2种指导性建议。并依据分析结果,展望了视频摘要技术未来的发展方向。结论 视频摘要技术作为视频内容理解的重要组成部分,有较大研究价值。而目前,视频摘要在视频语义表达和摘要评价系统方面并不精确完善,还需进一步的深入研究。  相似文献   

9.
一种草图形式的视频摘要生成方法   总被引:2,自引:1,他引:1       下载免费PDF全文
视频摘要作为一种视频内容的简要表示,能够有效地增强用户浏览和组织视频的效率。提出了一种基于草图的视频摘要生成方法。与以往的静态视频摘要方法不同,该方法结合视频内容分析,利用草图在表达上的简洁性和抽象性,对视频中的主要内容进行表达。首先通过视频分析获取视频中的语义特征并提取关键帧,然后通过交互式的方法从关键帧中生成草图,最后进行摘要布局生成完整的视频摘要。实验结果表明,该方法能够有效突出视频的主要对象和主要事件,并具有较高的用户满意度。  相似文献   

10.
基于AP聚类和频繁模式挖掘的视频摘要生成方法   总被引:1,自引:0,他引:1  
为了有效支持视频数据库浏览和检索,通过视频摘要来对视频进行紧凑表达变得十分重要.提出了一种新颖的基于近邻传播聚类AP(Affinity Propagation)和频繁镜头模式挖掘的视频摘要自动生成算法.视频频繁镜头模式被定义为在一定时间窗口内经常出现的镜头系列.首先通过近邻传播聚类,将相似镜头聚合到一起;然后采用频繁镜头模式挖掘的方法对视频聚类内容进行挖掘,去掉视频中冗余内容部分;最后通过覆盖视频语义信息的频繁镜头模式生成视频摘要.实验结果表明,视频摘要算法取得了良好的效果.  相似文献   

11.
动画视频分析中,实时在线地检测场景切换点是一个基础任务。传统基于像素和阈值的检测方法,不仅需要存储整个动画视频,同时检测结果受目标运动和噪声的影响较大,且阈值设定也不太适用复杂的场景变换。提出一种基于在线Bayesian决策的动画场景切换检测方法,新方法首先对动画帧图像分块并提取其HSV颜色特征,然后将连续帧的相似度存入一个固定长度的缓存队列中,最后基于动态Bayesian决策判定是否有场景切换。多类动画视频的对比实验结果表明,新方法能够在线且更稳健地检测出动画场景切换。  相似文献   

12.
视频层次结构挖掘   总被引:3,自引:0,他引:3  
视频处理的关键是视频信息的结构化,视频基本结构是由帧、镜头、场景和视频节目构成的层次结构。视频层次结构挖掘的一个简单框架是对视频进行镜头分割、抽取镜头特征和视频场景构造。论文在镜头分割的基础上提出了基于多特征的镜头聚类分析和基于镜头的场景边界检测两种视频场景构造方法,从而实现视频层次结构挖掘。实验表明,基于镜头的场景边界检测性能优于基于多特征的镜头聚类分析。  相似文献   

13.
基于统计学理论,提出了一种视频多粒度语义分析的通用方法,使得多层次语义分析与多模式信息融合得到统一.为了对时域内容进行表示,首先提出一种具有时间语义语境约束的关键帧选取策略和注意力选择模型;在基本视觉语义识别后,采用一种多层视觉语义分析框架来抽取视觉语义;然后应用隐马尔可夫模型(HMM)和贝叶斯决策进行音频语义理解;最后用一种具有两层结构的仿生多模式融合方案进行语义信息融合.实验结果表明,该方法能有效融合多模式特征,并提取不同粒度的视频语义.  相似文献   

14.
提出了背景置信度图像和背景标示图像的概念,给出了一种基于背景重建和象素最小距离(M DBP)的自动视频对象分割方法。首先运用基于背景置信度图像和背景标示图像的背景重建技术从视频序列的多帧图像中重建出可靠的背景图像,然后运用差背景法分割视频对象(VO),同时再利用象素最小距离(M D BP)和总体象素最小距离(W M DBP)准则对分割出的视频对象图像进行处理,克服由于背景的微小变化而引起的前景对象的错误检测。试验结果表明该文给出方法能够较好地重建背景,对于背景静止的视频能够得到更好的分割结果。  相似文献   

15.
基于视频的人体动画   总被引:14,自引:0,他引:14  
现有的基于运动捕获的动画普遍存在投资大,人体的运动受到捕获设备限制等缺陷。提出了新的基于视频的人体动画技术,首先从视频中捕获人体运动,然后将编辑处理后的运动重定向到动画角色,产生满足动画师要求的动画片段。对其中的运动捕获、运动编辑和运动重定向等关键技术进行了深入研究,并基于这些关键技术开发了一个基于双像机的视频动画系统(VBHA),系统运行结果表明了从来源广、成本低的视频中捕获运动,并经过运动编辑和运动重定向后生成逼真动画的可行性。  相似文献   

16.
综合利用声视特征的新闻视频结构化模型   总被引:5,自引:1,他引:5  
视频结构化表征和基于这种表征进行相似度比较是视频检索的前提和最基础的重要工作。该文受视频制作过程的启发,通过分析新闻视频的内容结构特点,提出一个基于多语义抽象层次表示的5层视频目录结构化模型;在此基础上,采用分层处理思想,通过综合利用声视特征实现了基于目录结构的新闻视频结构化,克服了单纯用视觉特征难以胜任场景分段的困难,实验验证了该文思想及相应算法的有效性。  相似文献   

17.
Automatic personalized video abstraction for sports videos using metadata   总被引:1,自引:1,他引:0  
Video abstraction is defined as creating a video abstract which includes only important information in the original video streams. There are two general types of video abstracts, namely the dynamic and static ones. The dynamic video abstract is a 3-dimensional representation created by temporally arranging important scenes while the static video abstract is a 2-dimensional representation created by spatially arranging only keyframes of important scenes. In this paper, we propose a unified method of automatically creating these two types of video abstracts considering the semantic content targeting especially on broadcasted sports videos. For both types of video abstracts, the proposed method firstly determines the significance of scenes. A play scene, which corresponds to a play, is considered as a scene unit of sports videos, and the significance of every play scene is determined based on the play ranks, the time the play occurred, and the number of replays. This information is extracted from the metadata, which describes the semantic content of videos and enables us to consider not only the types of plays but also their influence on the game. In addition, user’s preferences are considered to personalize the video abstracts. For dynamic video abstracts, we propose three approaches for selecting the play scenes of the highest significance: the basic criterion, the greedy criterion, and the play-cut criterion. For static video abstracts, we also propose an effective display style where a user can easily access target scenes from a list of keyframes by tracing the tree structures of sports games. We experimentally verified the effectiveness of our method by comparing our results with man-made video abstracts as well as by conducting questionnaires.
Noboru BabaguchiEmail:
  相似文献   

18.
针对海量动漫视频剪辑中可能包含不符合观众认知或接收程度的内容,为观众带来不愉快体验的问题,提出了基于知识库的卡通视频暴力场景检测方法。首先,利用低级特征(RBG颜色、亮度、色调)开发连续函数,进行场景中镜头边界识别;然后,利用运动信息,计算视频帧中的运动。接着,使用空间信息和运动信息进行分割处理,并使用欧氏距离方法进行对象识别;最后,利用包含所有常见物品、卡通角色及其视觉特征和行为特征的知识库,计算场景的暴力概率。实验结果表明,该系统能够成功检测到卡通视频中的暴力场景。  相似文献   

19.
一种基于模型的扫换检测方法   总被引:1,自引:0,他引:1  
金红  周源华 《软件学报》2001,12(3):468-474
视频自动分割是实现视频数据库检索必不可少的一个过程,其基础是镜头边界检测.当前已有的算法能够较准确地检测出镜头突变,但对于镜头的渐变则常常会漏检,这是由于镜头渐变时帧间差没有一个明显的峰值,因而其检测比突变检测要困难得多.扫换是一种常用的视频空间编辑手段,用于实现多种镜头变化.通过分析各种类型的扫换,提出了一种新的基于视频空间编辑模型的扫换检测算法,其性能优于Alattar提出的基于统计特征的算法.对用AdobePremiere5.1生成的各种扫换视频进行检测.实验结果表明,这种扫换检测算法能够较好地适应  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号