首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 192 毫秒
1.
压缩感知(CS)是一种能同时进行数据采集和压缩的新理论,为简化编码算法提供了依据,同时,分布式视频编码(DVC)为低复杂度的视频编码提供了思路。因此,通过整合DVC和CS各自的特性以构建编码简单的视频编码框架,并采用残差技术来提高系统性能,最终提出了一种残差分布式视频压缩感知(RDCVS)算法:对关键帧进行传统的帧内编、解码;而对非关键帧,编码端采用一种基于残差联合稀疏模型的随机观测,解码端利用边信息和改进的梯度投影重建(GPSR)算法进行优化重构。由于将运动估计和变换编码等复杂度较高的运算转移到解码端进行,因而RDCVS保持了低复杂度的编码特性。实验结果表明,RDCVS算法比参考方案的恢复质量提高了2~3 dB。  相似文献   

2.
为了有效解决无线多媒体传感器网络中多视角视频监控传输数据量大以及网络能量、资源受限的问题,提出了一种基于分布式压缩感知的高压缩率多视角视频编解码方法.对多视角视频序列进行分组处理,并将图像组分为关键帧和非关键帧;对关键帧采用基于压缩感知(compressed sensing,CS)的编解码方法进行处理;而在非关键帧的编码端采用联合稀疏表示方法对残差图像稀疏表示,解码端利用帧间时间相关性和多视角空间相关性预测生成当前视频帧,并借助差异补偿方法进一步提高预测准确性,同时提高了重构效果.实验结果表明,该方法取得较高的压缩率,重构出的图像质量比参考方法更高,且PSNR值得到了较大的提高.  相似文献   

3.
综合考虑到视频序列本身的不同特性以及时空相关性, 将传统视频编码中的多假设预测运动估计思想引入到分布式压缩感知视频编码系统中, 提出一种新的基于时空相关性的分布式压缩感知多假设预测重构算法。在编码端增加CS帧的块模式判别, 在解码端CS帧根据模式判别进行相应的基于块的多假设预测估计和残差稀疏重构。仿真实验表明, 与传统的分布式压缩感知多假设预测重构算法相比, 所提出的算法能够较好地改善视频序列的重建质量。  相似文献   

4.
为降低多媒体传感器网络中视频压缩感知的计算复杂度,提出一种基于帧分类的多媒体传感器网络视频联合重构算法。依据视频数据的联合稀疏模型将视频帧分为关键帧和非关键帧。对于压缩感知重构中欠定线性方程组,可利用关键帧和非关键帧之间的相关边信息进行重构初始化,同时运用有界约束二次规划对其进行求解。从仿真结果可知,相对于传统的视频压缩感知算法而言,在保证视频重构质量的前提下,所提方法在重构算法复杂度上不但能有效降低,同时,在视频重构上能提高其实时性。  相似文献   

5.
陈建  苏凯雄  王卫星  兰诚栋 《自动化学报》2014,40(10):2316-2323
压缩感知(CS)是在低于奈奎斯特率条件下获取和重构稀疏信号的新兴技术,在图像和视频获取和处理中有巨大的发展潜力.为了有效提高被测信号的稀疏性和重构效率,本文提出一种基于双边信息的残差分布式压缩视频感知(RDCVS-DSI)编解码模型.该模型利用了图像自身的频域特性和邻近帧之间的相关性,以低质量的视频帧作为编解码的第一边信息,解码端利用关键帧运动估计和运动补偿技术生成非关键帧的第二边信息.通过性能分析和仿真测试表明,该RDCVS-DSI模型能够在较低复杂度条件下,高保真地重建视频序列.与以前的压缩视频感知工作对比,重构帧的平均峰值性噪比达到1-5dB的增益,重构速度接近于复杂度最低的DCVS.  相似文献   

6.
针对传统视频编码技术计算量大和复杂度高的缺点,提出一种基于双边信息的分布式视频压缩感知算法。该算法将压缩感知技术与分布式视频编码技术相结合,把视频序列分为Key帧和CS帧,Key帧运用传统的帧内编码和解码,CS帧编码端运用压缩感知编码,解码端运用视频块内与视频块间的双边信息和梯度投影算法进行优化重构。通过双边信息的运动估计和压缩编码器的设计,实现基于双边信息的分布式视频压缩感知模型的构建。仿真结果表明该模型既可以实现高效编码,又可以实现复杂度由编码端向解码端转移,在较低的采样率下,提高视频的压缩能力和传输速度。  相似文献   

7.
摘要:目的: 针对视频处理中面临的采样数据量大及采样时间长的问题,本文把视频状态空间一阶自回归滑动平均模型和压缩感知模型相结合,提出了一种基于一阶自回归滑动平均的视频压缩感知模型。方法: 其主要思想是:在压缩感知理论框架下,充分利用视频帧内稀疏性和帧间相关性,把视频分割成动态部分和静态部分同时采样但分别处理,利用凸优化等方法得到视频状态空间一阶自回归滑动平均模型的关键参数。结果:多组真实场景下的实验结果表明,该模型较大程度上降低了帧间冗余度和数据采集量,视频采集压缩比在100至200时,仍然能取得较好的重建效果。结论:本文结合压缩感知和线性预测技术,提出了一种新的视频获取模型,对视频的静态部分和动态部分分别处理,并给出了该模型使用的条件。实验表明,该模型对帧间变化不大的视频,具有良好的压缩效果。  相似文献   

8.
针对传统视频编解码过程中计算量大,数据冗余的问题,利用新的压缩感知理论和运动补偿估计技术,提出了新的视频压缩处理过程。将视频帧分组,对关键帧采用压缩感知,对非关键帧利用运动补偿估计技术求残差,并对残差进行压缩感知,利用GPSR算法重构原始数据。实验仿真结果表明提出的模型能够利用较少的随机采样数据重构原始信息,达到较高的平均信噪比。  相似文献   

9.
分布式视频编码与压缩感知技术都有助于将计算复杂度从编码端向解码端迁移,已有研究显示两者的结合可能提高分布式视频编码系统的性能.基于传统分布式视频编码框架,借助多观测矢量稀疏重建技术,设计了一种混合压缩感知和LDPCA的分布式视频编码系统.首先根据稀疏度对频带数据进行划分,再分模式进行编码表示,其中非零系数较多的低频频带使用LDPCA技术进行压缩;而对稀疏度较高的高频频带,使用多观测矢量的压缩感知技术以求进一步利用频带间的相关性.仿真结果表明,系统的性能优于LDPCA的变换域分布式视频编码系统.  相似文献   

10.
一种压缩域中基于镜头的关键帧提取改进算法*   总被引:2,自引:1,他引:1  
关键帧提取技术是基于内容视频检索的基础。针对压缩视频序列提出一种基于镜头的关键帧提取改进算法。其核心是根据压缩视频序列的编码特点,只需要对其进行部分解码,利用I帧信息的直流分量信息构造DC缩微图,并结合图像帧不同区域DC信息的重要程度差异进行相似性度量,进而实现关键帧提取。实验证明,该算法较之传统算法,在查全率和检索时间两项指标上均有显著改善,尤其适用于新闻纪录片、电影片等局部运动较为剧烈的视频序列。  相似文献   

11.
针对分布式视频压缩感知中非关键帧重建质量较差的问题进行了研究,提出了一种基于半像素插值技术的残差多假设块迭代重建算法。该算法先对重建后的相邻关键帧进行半像素插值运动估计生成当前非关键帧的边信息;然后,在测量域内对非关键帧与边信息求残差并对残差进行多假设重建;最后,将重建的残差与边信息进行融合得到重建的非关键帧。仿真结果表明,基于半像素插值的改进残差多假设块迭代重建算法比多假设迭代重建算法重建质量平均提高了0.3~1.4dB,提高了非关键帧的重建质量。  相似文献   

12.
针对目前深度学习领域人体姿态估计算法计算复杂度高的问题,提出了一种基于光流的快速人体姿态估计算法.在原算法的基础上,首先利用视频帧之间的时间相关性,将原始视频序列分为关键帧和非关键帧分别处理(相邻两关键帧之间的图像和前向关键帧组成一个视频帧组,同一视频帧组内的视频帧相似),仅在关键帧上运用人体姿态估计算法,并通过轻量级光流场将关键帧识别结果传播到其他非关键帧.其次针对视频中运动场的动态特性,提出一种基于局部光流场的自适应关键帧检测算法,以根据视频的局部时域特性确定视频关键帧的位置.在OutdoorPose和HumanEvaI数据集上的实验结果表明,对于存在背景复杂、部件遮挡等问题的视频序列中,所提算法较原算法检测性能略有提升,检测速度平均可提升89.6%.  相似文献   

13.
上行流媒体在军民融合领域展现出日益重要的新兴战略价值,压缩感知视频流技术体系在上行流媒体应用中具有前端功耗低、容错性好、适用信号广等独特优势,已成为当前可视通信研究的前沿与热点之一。本文从阐述上行流媒体的应用特征出发,从性能指标、并行分块计算成像、低复杂度视频编码、视频重构和语义质量评价等方面,分析了当前针对压缩感知视频流的基础理论与关键技术,对国内外相关的研究进展进行了探究与比较。面向上行流媒体的压缩感知视频流面临着观测效率难控、码流适配困难和重建质量较低等技术挑战。对压缩感知视频流的技术发展趋势进行展望,未来将通过前端与智能云端的分工协作,突破高效率的视频观测与语义质量导引视频重构等关键技术,进一步开拓压缩感知视频流在上行流媒体应用中的定量优势与演进途径。  相似文献   

14.
视频快照压缩感知基于压缩感知理论,仅在一次曝光过程中将多帧画面投影至二维快照测量,进而实现高速成像。为了从二维快照测量信号恢复出原视频信号,经典的重建算法基于视频的稀疏性先验进行迭代优化求解,但重建质量较低,且耗时过长。深度学习因优异的学习能力而受到广泛关注,基于深度学习的视频快照压缩重建方法也得到关注,但现有深度方法缺乏对于时空特征的有效表达,重建质量仍有待进一步提高。本文提出视频快照压缩感知重建的多尺度融合重构网络(MSF-Net),该网络从横向的卷积深度和纵向的分辨率2个维度展开,分辨率维度利用三维卷积进行不同尺度的视频特征的提取,横向维度利用伪三维卷积残差模块对同分辨率尺度的特征图进行层级提取,并通过不同尺度下的特征交叉融合来学习视频的时空特征。实验结果表明,本文方法能够同时提升重建质量与重建速度。  相似文献   

15.
Fu  Li-hua  Sun  Xiao-wei  Zhao  Yu  Chen  Ren-jie  Chen  Hui  Zhao  Ru 《Multimedia Tools and Applications》2021,80(8):11423-11441

How to effectively utilize inter-frame redundancies is the key to improve the accuracy and speed of video super-resolution reconstruction methods. Previous methods usually process every frame in the whole video in the same way, and do not make full use of redundant information between frames, resulting in low accuracy or long reconstruction time. In this paper, we propose the idea of reconstructing key frames and non-key frames respectively, and give a video super-resolution reconstruction method based on deep back projection and motion feature fusion. Key-frame reconstruction subnet can obtain key frame features and reconstruction results with high accuracy. For non-key frames, key frame features can be reused by fusing them and motion features, so as to obtain accurate non-key frame features and reconstruction results quickly. Experiments on several public datasets show that the proposed method performs better than the state-of-the-art methods, and has good robustness.

  相似文献   

16.
Simultaneous sparse approximation is a generalization of the standard sparse approximation, for simultaneously representing a set of signals using a common sparsity model. Distributed compressive sensing (DCS) framework has utilized simultaneous sparse approximation for generalizing compressive sensing to multiple signals. DCS finds the sparse representation of multiple correlated signals from compressive measurements using the common + innovation signal model. However, DCS is limited for joint recovery of a large number of signals since it requires large memory and computational time. In this paper, we propose a new hierarchical algorithm to implement the joint sparse recovery part of DCS more efficiently. The proposed approach is based on partitioning the input set and hierarchically solving for the sparse common component across these partitions. The numerical evaluation of the proposed method shows the decrease in computational time over DCS with an increase in reconstruction error. The proposed algorithm is evaluated for two different applications. In the first application, the proposed method is applied to video background extraction problem, where the background corresponds to the common sparse activity across frames. In the second application, a common network structure is extracted from dynamic functional brain connectivity networks.  相似文献   

17.
为了高效、准确地获得视频中的行为类别和运动信息,减少计算的复杂度,文中提出一种融合特征传播和时域分割网络的视频行为识别算法.首先将视频分为3个小片段,分别从相应片段中提取关键帧,从而实现对长时间视频的建模;然后设计一个包含特征传播表观信息流和FlowNet运动信息流的改进时域分割网络(P-TSN),分别以RGB关键帧、RGB非关键帧、光流图为输入提取视频的表观信息流和运动信息流;最后将改进时域分割网络的BN-Inception描述子进行平均加权融合后送入Softmax层进行行为识别.在UCF101和HMDB51这2个数据集上分别取得了94.6%和69.4%的识别准确率,表明该算法能够有效地获得视频中空域表观信息和时域运动信息,提高了视频行为识别的准确率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号