首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
基于帧间相关性的盲视频数字水印算法   总被引:6,自引:0,他引:6  
提出了一种在原始视频中嵌入水印的算法。嵌入的水印由2部分组成:标志水印和信息水印。首先从一段原始视频里随机选出若干视频帧,在这些帧的像素平面亮度分量上固定位置嵌入标志水印,再根据密钥选取其他若干图像块在其离散余弦变换(DCT)直流系数中嵌入信息水印。然后在整段视频的每一小段中重复嵌入水印。提取水印时,只需从整段视频中截取足够包含完整信息水印的一小段视频,通过搜索标志水印快速地选出包含水印信息的帧。然后利用水印帧与前后相邻视频帧之间内容的高度相关性,得到嵌入水印位置像素值的估计,与包含水印信息帧相应位置做比较,提取出水印信息,实现了水印的盲提取。实验结果表明本算法能够抵抗压缩、缩放、帧删除/插入等各种攻击,具有较强的健壮性。  相似文献   

2.
为了自动获取主要视频信息且冗余信息较少的视频摘要,本文提出了LLE-自适应FCM和LLE-自适应阈值FCM算法.这两种方法首先利用流形学习算法局部线性嵌入(LLE)提取视频帧的特征向量,然后将得到的特征向量输入到自适应FCM和自适应阈值FCM中,得出分类效果和聚类中心.自适应FCM通过聚类有效性函数来确定分类类别数,而自适应阈值FCM是通过阈值的自动变化来确定分类类别数.最后把离聚类中心最近的视频帧作为视频摘要.实验的结果表明,在不需要人工干预的情况下,所提取的视频摘要既反映了视频的主要内容,而且冗余信息少.  相似文献   

3.
一种在原始视频帧中嵌入的鲁棒的数字水印   总被引:7,自引:0,他引:7  
该文提出的在原始视频帧中的扩频水印方案,使用二值图像作为水印,采用每帧索引的办法,并且利用相邻帧的统计相关性来嵌入水印。对于丢帧、帧重组以及共谋攻击有很强的鲁棒性。水印提取时不需要用到原始视频。文中对该方案进行了详细的介绍,并给出了仿真实验结果。  相似文献   

4.
针对现有视频水印算法很少考虑视频帧中确定的目标区域这一问题,提出一种基于Krawtchouk矩的视频水印算法(KVW).该算法利用Krawtchouk矩的目标区域提取能力,选取视频I帧中较为重要的信息区域作为水印的嵌入域.结合Krawtchouk低阶矩对剪切攻击的鲁棒性以及视频帧间相似度较高的特点,选择I帧和相邻P帧中相对稳定的低阶Krawtchouk矩作为最优矩集合.根据随机水印比特自适应地修改集合中的矩,并对差矢量进行Krawtchouk矩重构,通过将差值图像在空域迭加到I帧嵌入水印.水印检测时,首先计算受攻击I帧的Krawtchouk矩,以最优矩集合作为密钥,用相邻P帧Krawtchouk矩替代原始I帧数据提取水印,改善算法对原始数据的依赖性.实验结果表明,KVW算法在保证获得很好图像质量的同时,能够很好地抵抗帧剪切攻击以及常规的信号处理.  相似文献   

5.
结合视频压缩编码的动态图像水印方案   总被引:3,自引:0,他引:3  
本文提出了一种新的、结合视频压缩编码的动态图像水印方案。在嵌入水印时,充分考虑动态图像压缩编码的特性,对帧内编码帧(I帧),将水印信息嵌入到DCT低额系数中;面对帧间编码帧(P、B帧),结合动态补偿/离散余弦变换(MC/DCT)混合编码,把水印信息嵌入到运动补偿后的残差图象的直流成分中。同时,在水印嵌入时,采用扩频技术与多维水印相结合的方法,并通过相关检测的方法判断水印的存在。由于水印的检测是对视频码流直接实施的,不需要对压缩数据进行完全解码,从而大大降低了计算量,提高了视频数据水印的适用性。  相似文献   

6.
佟军  潘亚汉  杨恒 《电子质量》2013,(6):64-68,77
提出了一种基于帧内预测模式的H.264/AVC视频信息嵌入算法.在秘密信息进行嵌入时,根据人类视觉特性的掩蔽效应,筛选出I帧中纹理密集区域的4×4亮度块,确定为嵌入块.通过秘密信息调制4×4亮度块的预测模式最低有效位,完成秘密信息的嵌入.通过对算法进行仿真实验,证明本算法计算量小,能够实时处理.对视频载体影响小,有一定的嵌入容量,能够保证秘密信息的有效传输.  相似文献   

7.
提出一种基于FFMPEG系统的MPEG-2视频水印算法,解决了视频水印中不可避免的视频编解码问题。将水印图像和水印属性转成二进制比特流,作为嵌入视频的水印信息,提取时不需预知水印的尺寸信息就能恢复。同时在每个嵌入帧的起始部位嵌入标志序列,识别已嵌入水印的帧提取水印,而无需重新进入编码过程。实验结果表明,这种方案实现便捷,省时高效,且具有较好的不可见性和鲁棒性。  相似文献   

8.
由于传统的视频信息隐藏算法缺乏对人眼视觉感 知特性的研究,本文提出一种基于视觉感知 的3D-HEVC(3D High Efficiency Video Coding,3D-HEVC)帧间信息隐藏算法。首先,根 据立体显 著模型和大津阈值,将立体视频图像分为显著区域和非显著区域;然后,建立隐秘信息与量 化参数 QP(Quantization Parameter,QP)的映射关系,且针对不同的区 域,利用隐秘信息根据余数相等原 则相应的调制P帧或B帧的QP值;最后,用含隐秘信息的QP进行编码。实验结果表明,该 算法 平均每帧嵌入容量为246bit,相比于原始HTM13.0,所提算法编码重建立体视频序列的PSNR 值和SSIM值平均下降0.031dB和 0.000058,比特率仅平均增长0.0741%,且能对隐秘信息盲提取。  相似文献   

9.
利用独立分量分析(ICA)和离散小波变换(DWT),提出了一种新的视频数字水印算法。该算法将二值图像和灰度图像分别置乱后用ICA混叠得到两幅图像,选取其中一个用来做嵌入的水印,另一个作为密钥保留,以此来增加水印的安全性;用ICA将水印嵌入在原始视频的DWT低频子带系数中,实现了水印信号的盲检测,同时针对帧剪裁、帧丢失、帧平均和MPEG编码等具有良好的鲁棒性。  相似文献   

10.
依据 H.264视频编码标准提出一种视频水印方案。结合H.264帧间预测编码的特点以及人类视觉系统原理,选择P帧宏块中的MV作为水印信息嵌入的对象,对MV进行量化处理,得到两个互相独立的区域。根据水印信息的不同,修改MV,使其指向不同的区域,对其采用扩频技术来实现水印嵌入,以提高水印的鲁棒性。实验结果表明,新方案能够抵抗重编码压缩、加载噪声、旋转等多种攻击,鲁棒性良好。  相似文献   

11.
Key frame based video summarization has emerged as an important area of research for the multimedia community. Video key frames enable an user to access any video in a friendly and meaningful way. In this paper, we propose an automated method of video key frame extraction using dynamic Delaunay graph clustering via an iterative edge pruning strategy. A structural constraint in form of a lower limit on the deviation ratio of the graph vertices further improves the video summary. We also employ an information-theoretic pre-sampling where significant valleys in the mutual information profile of the successive frames in a video are used to capture more informative frames. Various video key frame visualization techniques for efficient video browsing and navigation purposes are incorporated. A comprehensive evaluation on 100 videos from the Open Video and YouTube databases using both objective and subjective measures demonstrate the superiority of our key frame extraction method.  相似文献   

12.
Many video denoising methods originated from methods designed for processing static two-dimensional images. Videos would be processed frame by frame, a process with a relatively high computational complexity, without taking into account the correlation information between frames. In this paper, a video denoising method using coefficient shrinkage and threshold adjustment based on Surfacelet transform (CSTA-ST) is proposed, which processes multiple frames of a video as an ensemble. Spatial correlation is used to define a weighted spatial energy. Each Surfacelet transform (ST) coefficient has a corresponding estimated energy value, in which the ST coefficients are grouped by. The similarity of the ST coefficients in a group determines the threshold of each ST coefficient. In addition, according to the neighborhood information of ST coefficients, the threshold is adjusted by a threshold adjustment factor. The coefficient shrinkage parameter is determined based on the adjusted threshold, and the ST coefficients are shrunk. Finally, the denoised video is obtained by the inverse ST using the shrunk coefficients. In experiments, video sequences with noise are tested, and the denoised results of the proposed method are compared with that of current denoising methods. The experimental results show that the proposed method significantly improves the peak signal-to- noise ratio (PSNR) and the structural similarity (SSIM) for various levels of noise and motion, and the ideal denoised visual effect is obtained.  相似文献   

13.
Recent development of depth acquiring technique has accelerated the progress of 3D video in the market. Utilizing the acquired depth, arbitrary view frames can be generated based on depth image based rendering (DIBR) technique in free viewpoint video system. Different from texture video, depth sequence is mainly utilized for virtual view generation rather than viewing. Inspired by this, a depth frame interpolation scheme using texture information is proposed in this paper. The proposed scheme consists of a texture aided motion estimation (TAME) and texture aided motion compensation (TAMC) to fully explore the correlation between depth and the accompanying textures. The optimal motion vectors in TAME and the best interpolation weights in TAMC are respectively selected taking the geometric mapping relationship between depth and the accompanying texture frames into consideration. The proposed scheme is able to not only maintain the temporal consistency among interpolated depth sequence but also improve the quality of virtual frames generated by interpolated depth. Besides, it can be easily applied to arbitrary motion compensation based frame interpolation scheme. Experimental results demonstrate that the proposed depth frame interpolation scheme is able to improve the quality of virtual view texture frames in both subjective and objective criterions compared with existing schemes.  相似文献   

14.
现有视频去雾算法由于缺少对视频结构关联约束和帧间一致性分析,容易导致连续帧去雾结果在颜色和亮度上存在突变,同时去雾后的前景目标边缘区域也容易出现退化现象。针对上述问题,该文提出一种基于雾线先验的时空关联约束视频去雾算法,通过引入每帧图像在空间邻域中具有的结构关联性和时间邻域中具有的连续一致性,提高视频去雾算法的求解准确性和鲁棒性。算法首先使用暗通道先验估计每帧图像的大气光向量,并结合雾线先验求取初始透射率图。然后引入加权最小二乘边缘保持平滑滤波器对初始透射率图进行空间平滑,消除奇异点和噪声对估计结果的影响。进一步利用相机参数刻画连续帧间透射率图的时序变化规律,对独立求取的每帧透射率图进行时序关联修正。最后根据雾图模型获得最终的视频去雾结果。定性和定量的对比实验结果表明,该算法下视频去雾结果的帧间过渡更加自然,同时对每一帧图像的色彩还原更加准确,图像边缘的细节信息显示也更加丰富。  相似文献   

15.
压缩感知(Compressed Sensing,CS)结合了视频信号的变换和信息压缩过程,为简化编码算法提供了一种新的解决思路.把分布式视频编码(DVC)和CS结合在一起,构建简单的视频编码框架,并利用原始视频帧与边信息之间的相关性进行残差重构,提出了一种基于边信息的分布式视频压缩感知编解码方案.此方法对关键帧采用传统的帧内编、解码;对非关键帧CS进行随机观测提取观测向量,解码端利用优化的边信息和传输的CS观测向量进行联合重构.实验结果表明,该方法在运动较平滑的序列中比参考方案的恢复质量提高了4 ~6 dB.  相似文献   

16.
一种基于二分图最优匹配的镜头检索方法   总被引:3,自引:0,他引:3       下载免费PDF全文
镜头检索是基于内容的视频检索的重要内容.本文首次尝试将二分图的最优匹配用于镜头检索.与现有方法相比,本文提出的方法强调在一一对应的前提下,全面客观地度量两个镜头的相似度.把两个镜头的相似度度量建模为一个带权的二分图:镜头中的每一帧看成二分图的一个结点,两个镜头之间任意帧的相似值作为边的权值.在一一对应的前提下,利用最优匹配的Kuhn-Munkres算法求出该二分图的最大权,以此作为两个镜头的相似度.考虑到检索速度问题,提出了两个改进算法.实验对比结果证实了本文所提方法在镜头检索中的优异表现.  相似文献   

17.
This paper presents a fast and effective technique for videos’ visual similarity detection and measurement using compact fixed-length signatures. The proposed technique (dominant colour graph profile DCGP) extracts and encodes the spatio-temporal information of a given video shot into a graph-based structure (tree) that fully captures this vital information. The graph structured properties are utilized to construct a fixed-length video signature of 112 decimal values per video shot. The encoded spatio-temporal information is extracted following channelling each video frame into a block-based structure, where the positions of respective blocks are tracked across video frames and encoded into multiple DCGP trees. The proposed technique provides a high matching speed (>2000 fps) and robust retrieval performance. The experiments on various standard and challenging datasets shows the framework’s robust performance, in terms of both, retrieval and computational performances.  相似文献   

18.
基于图中心和自动阈值的关键帧提取方法   总被引:4,自引:0,他引:4  
随着因特网的迅猛发展,迫切需要对越来越多的视频信息进行迅速且低成本的管理.而关键帧的使用可以大大减少视频索引的数据量,同时也为查询和检索视频提供了一个组织框架.文章中利用图与视频结构的相似性,将求关键帧的问题转化为求图的P中心问题;同时利用镜头之间的活动度不同,自动选取阈值.实验结果表明提取的关键帧集能够很好地表示镜头的主要内容,且有较低的计算复杂度。  相似文献   

19.
潘磊  束鑫  程科  张明 《光电子.激光》2014,(10):1977-1982
针对关键帧提取问题,提出了一种基于压缩感知理 论和熵计算的关键帧提取算法, 首先通过构造符合有限等距性质要求的稀疏随机投影矩阵,将高维多尺度帧图像特征变换为 低维多尺度帧图像特征, 并形成视频镜头低维多尺度特征列向量组;然后通过随机权值向量与低维多尺度特征向量的 阿达玛乘积运算生成各 帧图像的匹配特征,并根据匹配特征的相似性度量完成镜头内部的子镜头分割;最后通过交 叉熵计算在每个子镜头 中得到可能的关键帧,并由图像熵计算确定最终的关键帧。实验表明,与传统方法相比,本 文算法提取的关键帧能够更精确、更稳定描述视频镜头内容。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号