首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
金红  周源华 《电视技术》2000,(11):12-14,19
提出了一种新的利用Hausdorff距离进行视频镜头边界检测的方法。首先使用Canny乍子提取视频序列的边缘,把当前帧的边缘图分成N个小区域,分别进行运动补偿,然后利用Hausdorff距离比较视频帧之间边缘特性的差异,这种差异体现在各个小区域新出现和刚消失边缘点的数量之和。这种方法不但受光照条件变化影响不大,而且也能在某种程度中抵消物体和镜头的运动,最后讨论了该算法的局限性和今后的改进。  相似文献   

2.
视频检索中的镜头边界检测   总被引:6,自引:0,他引:6  
镜头边界检测是视频检索的关键技术。文中介绍了目前镜头边界检测国内外的研究成果。各检测方法的特点及其不足之处,并指出了发展方向。检测手段主要集中在像素域和压缩域中。其中在像素域中的检测方法主要包括:像素亮度匹配、直方图比较、基于块的技术、二次比较、基于运动矢量的技术、基于网络的技术、基于镶嵌的技术。压缩域中的方法主要包括:利用DCT系数进行匹配、利用矢量量化的方法、利用子带分解的方法、利用运动矢量的  相似文献   

3.
张玉明 《中国新通信》2009,11(11):65-67
为了从巨大的视频数据源中找到所需要的信息,基于内容的视频检索系统便应运而生。本文主要研究视频镜头切换检测技术。  相似文献   

4.
基于聚类的视频镜头分割和关键帧提取   总被引:4,自引:0,他引:4  
镜头分割是基于内容的视频检索和浏览首先要解决的关键技术。视频分割为镜头后,下一步的工作就是进行关键帧提取,用以描述镜头的主要内容。提出了一种改进的基于聚类的镜头分割和关键帧提取算法.在无监督聚类中引入一个参考变量,解决了利用无监督聚类进行镜头分割和关键帧提取时可能产生的帧序不连续或分割错误的问题。在关键帧提取阶段,将镜头分割为子镜头后,引入图像熵的概念提取关键帧。实验结果表明了改进算法在镜头分割和关键帧提取方面的有效性。  相似文献   

5.
基于内容的视频检索技术   总被引:16,自引:0,他引:16  
张继东  陈都 《电视技术》2002,(8):17-19,23
详细阐述了基于内容视频检索的3个基本方法(视频结构的分析、视频数据的自动索引和视频聚类)与基本过程,并对当前研究的进展进行了介绍。  相似文献   

6.
朱耀麟  李倩 《电视技术》2014,38(3):184-187
镜头分割是基于内容的视频检索的核心技术之一,经过多年的研究,目前已有大量算法被提出。首先对常用的镜头分割方法作了综述,然后以图表的方式对所讲方法进行了分类与归纳,最后基于现状提出一些想法,为实际应用提供了一定参考。  相似文献   

7.
介绍了国内外最新的几种镜头检测算法,分析了几种实用的视频检索系统中普遍采用的镜头边界检测方法,对其中的几种典型算法进行了改进,包括像素比较法、直方图比较法、X^2直方图比较法、区域块直方图比较法,并通过实验对这几种算法检测效果进行了分析比较。实验结果表明,改进后的算法具有较好的镜头检测效果。  相似文献   

8.
基于累积直方图的视频镜头边界检测方法   总被引:2,自引:0,他引:2  
提出了一种基于累积直方图的视频镜头边界检测方法,以累积直方图来代表视频帧图像的特征,其帧差充分反映了视频帧图像间的差异性;结合滑动窗的局部阈值分割处理,获得镜头边界检测对物体/摄像机的运动和光线变化的不敏感性。实验结果表明,本方法在镜头突变边界检测中达到95.97%的查全率和96.75%的查准率。  相似文献   

9.
基于窗帧差的镜头边界系数模型及其应用   总被引:1,自引:0,他引:1  
方勇  戚飞虎  冉鑫 《电子学报》2006,34(5):810-816
针对视频结构分析提出了一种新的镜头边界系数模型.首先,按照特定的计算方法计算当前帧的窗帧差,使得窗帧差在镜头内与镜头边界呈现不同的特征;然后,采用相应的镜头边界检测算子计算镜头边界相似系数,镜头边界相似系数越大,则该帧越可能是镜头边界;最后,为了提高镜头边界相似系数的检测能力,根据镜头边界相似系数定义了镜头边界系数.镜头边界系数具有良好的特性,可以单独检测镜头边界,也可以与传统的镜头边界检测方法相结合,为镜头边界检测提供了一种鲁棒的框架.实验结果表明,基于镜头边界系数模型的镜头边界检测方法能明显改善镜头边界检测结果.  相似文献   

10.
基于内容的视频镜头检测技术   总被引:1,自引:1,他引:1  
阐述了视频镜头检测的基本原理,详细讨论了非压缩域和压缩域的典型镜头检测方法,对这些算法从全率和查准率两个方面进行了比较与评价,指出了视频镜头检测技术的研究方向。  相似文献   

11.
Formulating steganalysis as a binary classification problem has been highly successful. However, the existing detection algorithms are difficult to obtain high detection accuracy when applied in real-world circumstances. Because so-called model mismatch problem often occurs owing to unknown cover source and embedding parameters. To avoid the mess of model mismatch, we propose a new unsupervised universal steganalysis framework to detect individual stego images. First, cover images with statistical properties similar to those of the given test image are searched from a retrieval cover database to establish an aided cover sample set. Second, unsupervised outlier detection is performed on a test set composed of the given test image and its aided cover sample set to determine the type (cover or stego) of the given test image. Our proposed framework, called Similarity Retrieval of Image Statistical Properties (SRISP)-aided unsupervised outlier detection, requires no training, and thus it does not suffer from model mismatch. The framework employs standard steganalysis features and detects each test image individually. Experimental results illustrate that the framework substantially outperforms one-class support vector machine and the traditional unsupervised outlier detectors without considering SRISP; its detection performance is independent of the proportion of stego images in the test samples.  相似文献   

12.
一种压缩域中基于镜头的视频检索方法   总被引:1,自引:0,他引:1  
镜头是视频的基本单元。文章提出了一个计算镜头纹理直方图和在压缩域中基于镜头的视频检索方法。对镜头中所有Ⅰ帧的DC图分别提取颜色和纹理直方图,然后分别形成镜头的可变阿尔法颜色和纹理直方图.并用镜头的这些特征在镜头层次上用不同的距离度量方法进行视频检索。实验结果表明,基于镜头的检索用L1度量距离比用L2和Χ^2度量距离有更好的检索性能,而且避免了基于关键帧检索中由于镜头运动等原因可能导致镜头关键帧选择不当对检索性能的影响,因而比基于关键帧检索具有更好的检索性能。  相似文献   

13.
为了高效地从视频中检索出激动人心的场面,提出了一种基于高斯混合模型的无监督情感场景检测方法.首先,从面部选取42个特征点,并定义10种面部特征;然后,利用高斯混合模型将视频的帧划分为多个聚类;最后,利用每一帧的面部表情分类结果将情感场景划分为单个聚类,并通过场景集成和删除完成检测.在生活记录视频和MMI人脸表情数据库上的实验结果表明,该方法的检测率、分类率分别高达98%,95%,检测5分钟左右的情感场景视频仅需0.138 s,性能优于几种较为先进的检测方法.  相似文献   

14.
All video streams consist of highly compressed coded data. A video stream must be decoded to identify a video. It is impossible to decode and identify a video fragment without knowing the correct video format. Therefore, the first issue that must be addressed is classification of video formats. Although several methods exist for classifying file formats, a technology that specifically classifies the formats of video fragments has not been developed. In this paper, we present a novel approach to classify the formats of small fragments of video streams. Our classification procedure involves construction of high-dimensional feature vectors by combining synchronization patterns extracted from training fragments. The feature vectors are classified using optimized discriminative subspace clustering (ODiSC). The experimental results show a minimum classification error rate of 4.2%, and the precision of identification of the formats was greater than 91% for the four video formats whose fragment size was 256 KB.  相似文献   

15.
基于组合相似性的视频检索   总被引:2,自引:0,他引:2  
该文研究基于镜头的视频检索问题,提出了一种新的基于组合相似性的镜头相似性度量方法。首先把镜头看成由帧序列组成的一个组合,镜头的相似性通过帧组合的相似性来度量。其次通过用一个非线性映射,把帧组合所在的空间映射到一个高维空间,在这个空间中,假设帧组合服从正态分布,利用核方法,抽取出关键帧序列,并计算出两个正态分布之间的概率距离,这个距离表明了帧组合的相似程度,从而得到两个镜头之间的相似性。最后将这种方法应用于基于镜头的视频检索中,实验表明在相同条件下,基于该方法的检索效果明显优于传统的欧式距离和直方图交方法。  相似文献   

16.
以往的被动测距方法主要集中在可见光领域,利用图像稳定的特征点进行观察,目前利用计算目标尺度变化率进行撞击时间估计,已经发展成为一种较成熟的方法。然而在红外领域,由于红外图像自身的特性其特征点难以提取,原有的特征点跟踪方法无法适用。文中论述了一种红外图像撞击时间估计方法,根据红外图像难以提取特征点而相对易于目标分割的特点,提出了先对国图像进行分割提取目标面积,然后根据图像序列目标面积变化率来进行撞击时间估计,并根据撞击时间系统特征对估计结果进行修正以进一步提高精度。实验结果证明了该方法的有效性。  相似文献   

17.
基于模糊聚类和时域跟踪的视频分割   总被引:7,自引:0,他引:7  
黄波  杨勇  王桥  吴乐南 《通信学报》2001,22(12):22-28
本文提出了一种基于模糊聚类和时域跟踪的视频分割方法。它把视频序列的连续7帧图像作为一组,对每组中间那一帧图像进行初始分割,对组内其他帧图像采用时域跟踪方法进行分割。初始分割采用了改进的多特征模糊聚类方法:时域跟踪是利用上一帧的分割结果通过运动估计向下一帧投影,作为下一帧的初始分割来完成的。  相似文献   

18.
In this paper, we propose a novel and robust modus operandi for fast and accurate shot boundary detection where the whole design philosophy is based on human perceptual rules and the well-known “Information Seeking Mantra”. By adopting a top–down approach, redundant video processing is avoided and furthermore elegant shot boundary detection accuracy is obtained under significantly low computational costs. Objects within shots are detected via local image features and used for revealing visual discontinuities among shots. The proposed method can be used for detecting all types of gradual transitions as well as abrupt changes. Another important feature is that the proposed method is fully generic, which can be applied to any video content without requiring any training or tuning in advance. Furthermore, it allows a user interaction to direct the SBD process to the user's “Region of Interest” or to stop it once satisfactory results are obtained. Experimental results demonstrate that the proposed algorithm achieves superior computational times compared to the state-of-art methods without sacrificing performance.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号