首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 352 毫秒
1.
为了解决空域特征与时域特征只能片面地表征视频内容的问题,提出了一种基于时空代表帧序列的视频近拷贝检测方法.首先,根据帧间颜色卡方差与灰度OM(ordinal measurement)差别进行场景分割;其次,对分割后的视频进行降帧率操作,对于每个分割后的场景,进行分段合成,并根据加权的灰度互信息量进行筛选,得到每个场景的时空代表帧(representative image),并对视频代表帧提取灰度的OM、均值、标准差、对比度以及颜色分布描述子和边缘OM序列等特征;最后,对视频的特征进行对比,根据特征的相似程度来判断检测视频是否为近拷贝视频.实验结果表明,该方法具有较好的鲁棒性和检测能力.  相似文献   

2.
提出了一种基于宏块信息的快速MPEG压缩视频场景分割算法。该算法只需要通过直接抽取MPEG视频流中的B帧、P帧中的宏块类型信息,并对其进行计算就可以检测出视频中存在的镜头边界,从而对场景变换进行精确定位。这种方法无需对压缩视频进行解压,所以能够满足实时检测的速度要求。经过选用多个MPEG压缩视频进行实验分析证明,此方法能够精确有效地检测出视频流中存在的镜头边界。  相似文献   

3.
针对手脸遮挡条件下的手语视频手势检测问题,提出一种基于力场(Force Field)转换的手势检测算法。首先分别计算手脸遮挡帧和纯脸部帧的力场图像,然后将力场图像分块并统计各分块直方图特征,再将相同空间位置的分块直方图对应相减,得到各分块直方图灰度分量差,最后将各分块直方图灰度分量差与灰度阈值进行比较获得手部位置。实验证明该算法能够实时进行手脸遮挡条件下的手势检测。  相似文献   

4.
鉴于传统混合高斯模型在光照突变、噪声干扰时鲁棒性不高,易造成检测错误等问题,提出一种改进的监控视频前景运动目标提取算法.该算法将帧差法平滑化,再与混合高斯模型相结合,分别采用正序和倒序对样本灰度矩阵处理,增强识别准确度.通过基于灰度图的协方差矩阵导出仿射不变量,根据已有的仿射不变量对灰度图进行识别、分析,得到在晃动视频下的前景运动目标的较准确提取.不同场景的视频检测结果表明,改进算法有效克服了监控摄像头晃动或偏移、光照突变、噪声干扰、"空洞"及"双影"现象,与同类算法相比,具有更高的准确度和鲁棒性.  相似文献   

5.
视频字幕提取是建立视频信息索引的有效手段,字幕区的检测和定位是新闻视频字幕提取过程中影响识别效率的关键问题。利用新闻视频字幕区在视频帧序列中的变化规律,通过计算视频字幕帧之间的时间相关性能够实现新闻视频字幕场景的快速分割。对经过场景分割同主题新闻视频帧序列中的字幕,以像素的帧序列方差描述其字幕区时间不变性,提出了一种基于帧序列颜色分析的视频字幕区定位提取方法,并通过实验验证了方法的有效性。  相似文献   

6.
提出基于双阈值灰度直方图的场景切换检测算法.在传统场景切换检测算法基础上,根据动态高低阈值判断是否发生场景突变及场景渐变,在场景渐变情形中,进一步通过检测非相邻帧的帧差值来判断是否发生场景切换.Matlab仿真环境实验结果表明:该算法有效克服了传统灰度法的误检和直方图法的漏检等不足,具有较高的识别准确率和查全率.  相似文献   

7.
视频场景人群状态预报是防止公共场所安全事故的一种重要措施.为此提出了一种视频场景群体状态预报模型.该模型使用格内驻留元胞自动机(inner-grid parking cellular automata, IPCA)模型预报视频中群体状态.首先,通过光流法进行运动跟踪作为IPCA的输入特征对场景进行建模,并根据特征点的运动状态自适应地调整其在元胞格内的驻留时间以提高预报精度;其次,通过分析IPCA模型的预测结果判断群体微团间的相互作用得到视频帧的状态信息,从而达到对场景中人群状态进行预报的目的;最后,利用当前场景的状态信息对该场景的预报输出进行反馈校正,使模型能够及时地反映场景中群体状态的变化,该模型不依赖于具体的视频帧,以微团结构的碰撞作为异常检测依据.实验结果表明,与传统的检测方法相比,该预报模型能够提前预报视频场景中的异常状态,并具有较好的准确性.  相似文献   

8.
为了从复杂场景中获取高质量的背景图像,提出一种基于帧间差分法和背景差分法的改进算法。将帧间差分法获得的背景图像作为视频的初始图像,将当前帧与初始图像的差值和平均差值进行比较,通过加权平均得到视频的背景图像,在背景更新时对背景图像进行选择性更新。改进算法在不同的场景中具有较强的适应能力。  相似文献   

9.
针对基于DSP的疲劳驾驶实时检测系统,利用Adaboost算法训练人脸与人眼分类器,在分析了基于Hough找圆法与灰度投影法的人眼状态分析算法各自的优缺点后,提出了一种新的基于区域灰度特征的人眼状态分析算法,该算法不需要精确几何模型,利用基于区域特征的灰度均值,具有很强的鲁棒性。将疲劳驾驶检测算法移植到DSP中后,检测算法的帧速率达到18帧/秒,满足了实时检测的性能要求。  相似文献   

10.
为了提高视频质量评价的精确度和通用性,提出了一种基于失真度估计的无参考视频质量评价方法。首先,利用邻近像素点之间灰度差值的数理统计特性计算局部失真度,通过对视频进行高斯滤波后的细节损失进行计算得到全局失真度,再结合这两者估计视频整体的失真度;然后,通过帧内预测和帧间预测计算视频复杂度;最后,利用视频失真度和复杂度得到视频客观质量。实验结果表明,用本文方法可以获得很好的精确度,该方法具有广泛的通用性。  相似文献   

11.
多帧图像超分辨率重建中,连续各帧图像间的精确匹配和帧的选择具有非常重要的意义。提出了自适应帧选择原则,设计了联合光子流运动估计配准和超分辨率重建的方法。首先采用光子流运动估计算法计算各帧间的运动估计,设计一种自适应帧选择方法丢弃一些帧间运动较大的帧,再通过亚像素图像配准,计算得到相对精确的运动估计参数,最后结合最大后延概率方法进行图像超分辨率计算,并充分考虑两次迭代所得图像向量的差值对下次迭代算法的影响。实验结果表明,该方法不仅可以实现亚像素级的精确配准,还可以使重建后图像在视觉效果和峰值信噪比上都得到更好的效果。  相似文献   

12.
插帧和删帧是常见的视频帧间篡改方式,针对此研究问题,提出一种基于结构相似度均值( MSSIM)商的一致性检测算法。对于一段连续拍摄的视频,由于视频内容的连续性,相邻帧之间的MSSIM商具有连续现象。而对于经过插帧或删帧篡改的视频,其篡改点位置的MSSIM商会发生突变,从而破坏其一致性。为此,该算法首先计算每相邻两帧间的MSSIM值,之后对相邻MSSIM求商并以此作为特征,而后两次利用切比雪夫不等式及阈值法对提取特征进行异常点检测,从而实现对视频插帧和删帧的篡改检测及定位。实验结果表明,该算法对视频插帧和删帧篡改具有较高的检测率。  相似文献   

13.
在传统视频关键帧提取过程中,需要对每一帧视频图像进行特征提取、图像匹配、重复检测等大量计算,导致算法运行时间过长。对此,该文提出了CUDA框架下的关键帧互信息熵多级提取算法。在CPU调度及GPU划分线程基础上,依据帧间三通道互信息熵,将视频序列初次划分为静态片段类和动态片段类;运用相邻帧间互信息量极小值法,将动态片段划分成多个关键子类,在关键子类中选取预备关键帧;并运用SUSAN算子分块计算,快速完成帧间的边缘匹配,从预备关键帧中滤除冗余,得到最终的关键帧序列。实验结果表明,与其他算法相比,该算法的查全率和查准率均为91%以上,提取关键帧的数量平均减少约42.82%,降低了视频数据量的存储,与其他CPU串行方法相比,其关键帧提取时间减少约50%,提高了算法运算效率。  相似文献   

14.
针对监控视频在时间上存在冗余的问题,对ViBe(visual background extractor)算法进行改进,解决了ViBe算法存在噪声和易引入鬼影的问题,通过改进后的算法对视频进行背景建模,并对得到的背景掩模提取外轮廓以确定视频帧中是否存在前景对象。将存在前景对象的视频帧写入视频流中,达到视频浓缩的目的。经过试验验证,该方法可以有效地减少视频中的冗余信息,减小视频的体积,视频中的重要信息同时也得到了完整保留,满足实时性要求。  相似文献   

15.
提出一种基于双树复小波变换的多格式音频感知哈希算法,解决了现有音频认证算法音频格式单一、算法不通用、效率低的问题. 首先对预处理后的音频信号进行全局双树复小波变换,获得信号的实小波和复小波系数,对它们分别分帧,帧数相同;对实小波系数计算每帧信号Teager能量算子的模值,作为实小波系数的帧间特征,接着对每帧信号再分帧,提取再分帧帧信号的短时能量作为实小波系数的帧内特征;对复小波系数求取每帧信号的熵值作为复小波系数的帧间特征;最后对上述特征分别进行哈希构造,生成感知哈希序列. 实验结果表明,该算法对5种不同格式的音频都具有强鲁棒性,且区分性好,效率高,并能实现小范围篡改检测.  相似文献   

16.
提出了一种新的基于时域定区间记忆补偿的视频对象分割算法。首先,使用对称帧帧差累计法及帧差图像的四阶矩检测出初始运动变化区域;然后,对检测出的初始运动变化区域通过时域定区间记忆补偿法进行补偿,并进一步整合形成全局运动记忆母板,在空域使用Sobel边缘检测算子较为精确地检测得到当前帧中所有边缘;最后,进行时空融合,从而提取出完整精细的运动对象轮廓并通过填充得到运动对象模板。实验证明了本文算法的正确性和快速性。  相似文献   

17.
With the vigorous development of national infrastructure construction and public information construction, video surveillance systems have gradually penetrated various fields. The current key frame extraction technology has inadequate target details and inaccurate judgment of local actions. Addressing this problem, a key frame extraction method based on fractional Fourier transform is proposed. This method obtained the phase spectra information of different orders by performing fractional Fourier transform on the surveillance video frames. Next, the method designed an adaptive algorithm based on the golden section point to select the transformation order.Then, the phase spectrum information of two adjacent frames was used to characterize the changes in the global and local motion states of the target. The final step was to extract key frames based on this. Experimental results show that, compared with the previous methods, the key frames extracted by the method proposed in this paper can correctly capture the changes in the global and local motion states of the target.  相似文献   

18.
在无人机航拍视频烟雾检测领域中,由于不同检测场景差异大,导致现有烟雾检测算法经常出现检测精度低、速度慢等问题。为了解决以上问题,建立了一个基于无人机视角的多类场景下的烟雾数据集(UAV smoke dataset,USD),并提出了一种改进YOLOx的多类场景下无人机视频烟雾检测算法。首先,在YOLOx网络模型中引入改进的注意力机制,分别改进通道特征和空间特征的提取过程,提取更加具有表征能力的烟雾特征;然后,提出一种双向特征融合模块,增强多尺度特征融合模块对小目标烟雾特征的融合能力;最后,引入Focal-EIOU损失函数,解决训练过程中出现正负样本不平衡,以及预测框和真实框不相交时无法反映两个框的距离远近和重合度大小等问题。实验结果表明,所提算法在应用于多类场景下无人机视频烟雾检测任务时具有较好的鲁棒性,对比多个经典烟雾检测算法,本文算法在不同数据集上的烟雾检测准确率均有不同的提升,比如对比原有的YOLOx-s模型,准确率提升2.7%,召回率提升3%,速度达到73.6帧/s。  相似文献   

19.
为了克服现有数字视频取证算法识别准确率低、定位能力差等缺点,提出一种具有高识别率且定位准确的基于Inception-V3网络的二级分类取证算法.在第一级分类器中提出简单的阈值判断方法来区分原始和篡改视频,第二级分类器将采用Inception-V3网络的稠密卷积核结构来自动提取篡改视频帧的高维多尺度特征.高维多尺度特征有助于提升篡改视频帧的识别率.实验结果表明,本文提出的算法不仅能准确地检测出篡改视频,还能从篡改视频中精确定位出篡改帧.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号