共查询到19条相似文献,搜索用时 203 毫秒
1.
2.
3.
4.
5.
彭泽华 《数字社区&智能家居》2006,(4):113-114
视频摘要是时视频内容的一个简短的小结。本文介绍的视频摘要的基本概念、视频摘要的分类,并重点介绍了每一类视频摘要实现的关键技术。最后对目前的视频摘要技术作了小结.并展望了今后的发展方向。 相似文献
6.
彭泽华 《数字社区&智能家居》2006,(11)
视频摘要是对视频内容的一个简短的小结。本文介绍的视频摘要的基本概念、视频摘要的分类,并重点介绍了每一类视频摘要实现的关键技术。最后对目前的视频摘要技术作了小结,并展望了今后的发展方向。 相似文献
7.
众所周知 ,文本的摘要是对一篇文章的一个简短的小结 .随着对视频数据处理要求的不断提高 ,出现了类似的概念——视频摘要 ,同时也产生了视频摘要技术 .同文本摘要概念相似 ,视频摘要是对视频的一个简短的小结 .为了使人们对视频摘要有一个概略的了解 ,该文首先阐述了视频摘要的基本概念 ,同时简单介绍了视频摘要的应用 ,并在此基础上对视频摘要进行了分类 ;然后重点介绍了每一类视频摘要的实现技术——关键帧提取技术、多特征融合技术等 ;最后对目前视频摘要技术进行了小结 ,并展望了若干发展途径 . 相似文献
8.
目的 类似于文本摘要,视频摘要是对视频内容的总结。为了合理地评估视频摘要领域的研究进展,正确导向视频摘要的继续研究,本文归纳总结视频摘要技术的主要研究方法和显著性成果,对视频摘要技术进行综述。方法 依据视频摘要的两个主要生成步骤:视频内容分析和摘要生成分别介绍视频摘要的主要研究方法。同时,分析了近5年视频摘要领域的研究状况,对视频摘要发展的新趋势:实时视频摘要和多视角视频摘要进行了阐述。最后,还对视频摘要的评价系统进行了分类总结。结果 对视频摘要进行综述,对摘要中的语义获取难题提出了2种指导性建议。并依据分析结果,展望了视频摘要技术未来的发展方向。结论 视频摘要技术作为视频内容理解的重要组成部分,有较大研究价值。而目前,视频摘要在视频语义表达和摘要评价系统方面并不精确完善,还需进一步的深入研究。 相似文献
9.
视频摘要作为一种视频内容的简要表示,能够有效地增强用户浏览和组织视频的效率。提出了一种基于草图的视频摘要生成方法。与以往的静态视频摘要方法不同,该方法结合视频内容分析,利用草图在表达上的简洁性和抽象性,对视频中的主要内容进行表达。首先通过视频分析获取视频中的语义特征并提取关键帧,然后通过交互式的方法从关键帧中生成草图,最后进行摘要布局生成完整的视频摘要。实验结果表明,该方法能够有效突出视频的主要对象和主要事件,并具有较高的用户满意度。 相似文献
10.
基于AP聚类和频繁模式挖掘的视频摘要生成方法 总被引:1,自引:0,他引:1
为了有效支持视频数据库浏览和检索,通过视频摘要来对视频进行紧凑表达变得十分重要.提出了一种新颖的基于近邻传播聚类AP(Affinity Propagation)和频繁镜头模式挖掘的视频摘要自动生成算法.视频频繁镜头模式被定义为在一定时间窗口内经常出现的镜头系列.首先通过近邻传播聚类,将相似镜头聚合到一起;然后采用频繁镜头模式挖掘的方法对视频聚类内容进行挖掘,去掉视频中冗余内容部分;最后通过覆盖视频语义信息的频繁镜头模式生成视频摘要.实验结果表明,视频摘要算法取得了良好的效果. 相似文献
11.
动画视频分析中,实时在线地检测场景切换点是一个基础任务。传统基于像素和阈值的检测方法,不仅需要存储整个动画视频,同时检测结果受目标运动和噪声的影响较大,且阈值设定也不太适用复杂的场景变换。提出一种基于在线Bayesian决策的动画场景切换检测方法,新方法首先对动画帧图像分块并提取其HSV颜色特征,然后将连续帧的相似度存入一个固定长度的缓存队列中,最后基于动态Bayesian决策判定是否有场景切换。多类动画视频的对比实验结果表明,新方法能够在线且更稳健地检测出动画场景切换。 相似文献
12.
13.
基于统计学理论,提出了一种视频多粒度语义分析的通用方法,使得多层次语义分析与多模式信息融合得到统一.为了对时域内容进行表示,首先提出一种具有时间语义语境约束的关键帧选取策略和注意力选择模型;在基本视觉语义识别后,采用一种多层视觉语义分析框架来抽取视觉语义;然后应用隐马尔可夫模型(HMM)和贝叶斯决策进行音频语义理解;最后用一种具有两层结构的仿生多模式融合方案进行语义信息融合.实验结果表明,该方法能有效融合多模式特征,并提取不同粒度的视频语义. 相似文献
14.
提出了背景置信度图像和背景标示图像的概念,给出了一种基于背景重建和象素最小距离(M DBP)的自动视频对象分割方法。首先运用基于背景置信度图像和背景标示图像的背景重建技术从视频序列的多帧图像中重建出可靠的背景图像,然后运用差背景法分割视频对象(VO),同时再利用象素最小距离(M D BP)和总体象素最小距离(W M DBP)准则对分割出的视频对象图像进行处理,克服由于背景的微小变化而引起的前景对象的错误检测。试验结果表明该文给出方法能够较好地重建背景,对于背景静止的视频能够得到更好的分割结果。 相似文献
15.
16.
综合利用声视特征的新闻视频结构化模型 总被引:5,自引:1,他引:5
视频结构化表征和基于这种表征进行相似度比较是视频检索的前提和最基础的重要工作。该文受视频制作过程的启发,通过分析新闻视频的内容结构特点,提出一个基于多语义抽象层次表示的5层视频目录结构化模型;在此基础上,采用分层处理思想,通过综合利用声视特征实现了基于目录结构的新闻视频结构化,克服了单纯用视觉特征难以胜任场景分段的困难,实验验证了该文思想及相应算法的有效性。 相似文献
17.
Video abstraction is defined as creating a video abstract which includes only important information in the original video
streams. There are two general types of video abstracts, namely the dynamic and static ones. The dynamic video abstract is a 3-dimensional representation created by temporally arranging important scenes while
the static video abstract is a 2-dimensional representation created by spatially arranging only keyframes of important scenes.
In this paper, we propose a unified method of automatically creating these two types of video abstracts considering the semantic
content targeting especially on broadcasted sports videos. For both types of video abstracts, the proposed method firstly
determines the significance of scenes. A play scene, which corresponds to a play, is considered as a scene unit of sports videos, and the significance of every play scene is
determined based on the play ranks, the time the play occurred, and the number of replays. This information is extracted from
the metadata, which describes the semantic content of videos and enables us to consider not only the types of plays but also their influence
on the game. In addition, user’s preferences are considered to personalize the video abstracts. For dynamic video abstracts,
we propose three approaches for selecting the play scenes of the highest significance: the basic criterion, the greedy criterion,
and the play-cut criterion. For static video abstracts, we also propose an effective display style where a user can easily
access target scenes from a list of keyframes by tracing the tree structures of sports games. We experimentally verified the
effectiveness of our method by comparing our results with man-made video abstracts as well as by conducting questionnaires.
相似文献
Noboru BabaguchiEmail: |
18.
针对海量动漫视频剪辑中可能包含不符合观众认知或接收程度的内容,为观众带来不愉快体验的问题,提出了基于知识库的卡通视频暴力场景检测方法。首先,利用低级特征(RBG颜色、亮度、色调)开发连续函数,进行场景中镜头边界识别;然后,利用运动信息,计算视频帧中的运动。接着,使用空间信息和运动信息进行分割处理,并使用欧氏距离方法进行对象识别;最后,利用包含所有常见物品、卡通角色及其视觉特征和行为特征的知识库,计算场景的暴力概率。实验结果表明,该系统能够成功检测到卡通视频中的暴力场景。 相似文献
19.
一种基于模型的扫换检测方法 总被引:1,自引:0,他引:1
视频自动分割是实现视频数据库检索必不可少的一个过程,其基础是镜头边界检测.当前已有的算法能够较准确地检测出镜头突变,但对于镜头的渐变则常常会漏检,这是由于镜头渐变时帧间差没有一个明显的峰值,因而其检测比突变检测要困难得多.扫换是一种常用的视频空间编辑手段,用于实现多种镜头变化.通过分析各种类型的扫换,提出了一种新的基于视频空间编辑模型的扫换检测算法,其性能优于Alattar提出的基于统计特征的算法.对用AdobePremiere5.1生成的各种扫换视频进行检测.实验结果表明,这种扫换检测算法能够较好地适应 相似文献