首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
《Planning》2016,(2)
在新一代高效三维视频编码标准(High Efficiency Video Coding for 3D,3D-HEVC)中,为了更加精确地表示深度图中的物体边界,利用非矩形块分割的深度建模模式(Depth modelling modes,DMMs)预测编码方法被引入,现有的DMMs模式包括锲形(Wedgelet)分割和轮廓(Contour)分割2种模式,其主要区别在于推导分割的方式不同。Contour分割利用已编码纹理块信息进行深度分区推导,然而这种分割方法仅仅利用了纹理与深度之间的结构相关性,而忽略了边界相邻块之间具有的边缘相似性,这潜在导致推导块分割不准确,进而影响编码效率。针对Contour分割模式导致的分割不准确问题,结合深度边界块之间的边缘相似信息,提出了一种增强的Contour分割方法。实验结果表明,与3D-HEVC的参考软件HTM11.0相比,在全帧内(AllIntra,AI)编码测试条件下,对于合成视点平均有近0.1%的BD-Rate节省。  相似文献   

2.
《Planning》2019,(16)
本文提出基于模板帧的柱面全景视频拼接方法,实现360°全景拼接。首先采集模板帧图像,对摄像头进行参数标定获得相机内参和畸变系数,再使用畸变矫正方法去除摄像头畸变带来的成像失真。然后对模板帧图像进行SURf特征提取并进行粗匹配,再用高效的匹配点筛选方法剔除误匹配的特征点。之后将特征点进行柱面投影,事先计算好多路视频帧图像两两之间的位置变换矩阵,用于后续视频帧图像融合。由于后续视频帧利用模板帧的摄像头内参和畸变系数、变换矩阵进行拼接融合,大幅提升了算法速度。另外,为了进一步提高算法速度以适应实时性需求,我们在图像柱面投影和融合时,采用CUDA平台进行GPU并行处理,对算法进行加速。最终实现速度可达30帧/秒的实时视频拼接。  相似文献   

3.
《Planning》2014,(4)
研究在动态背景下对视频图像序列进行运动目标的检测。主要包括三个步骤,分别是运动估计,运动补偿和目标检测。在运动估计中采用的主要是基于特征点匹配算法。这种算法与传统的块匹配算法最大的好处在于它的数据量少,计算简单迅速而且图像的匹配可靠性更高。最后用计算机视觉库OpenCV进行实现。  相似文献   

4.
《Planning》2017,(4)
立体视频流在易发生错误的信道中传输时会发生丢包现象,导致无法正确解码,影响观看效果。本文提出基于H.264平台的立体视频隐藏算法,依据最小代价函数值模式自适应选择两种不同算法,一种利用视点间运动矢量和强度差的相似性来隐藏;另一种采用边界匹配法选择两个候选块权值叠加隐藏。仿真结果表明本文算法比其他算法显著改善了隐藏效果,具有很强的鲁棒性。  相似文献   

5.
视频编码标准MPEG-4增加了适用于多种应用的基于视频内容的功能,为了支持这一功能和提高编码效率,MPEG-4将视频序列中的每一帧分解成视频对象面(VOP),这需要按照视频对象进行视频图像分割.基于MPEG-4的视频对象分割是MPEG-4标准的核心问题,同时,也是一个非常复杂的问题.为了提高视频序列的分割速度和分割结果的连续性,需要对视频对象进行跟踪.基于视频运动对象跟踪的现状和特点,提出了一种基于视频运动对象区域灰度特征跟踪和轮廓特征跟踪相结合的视频运动跟踪算法,实现了视频对象的实时跟踪.  相似文献   

6.
《Planning》2017,(20)
针对视频关键帧提取过程中,需要对视频中每帧图像进行大量诸如特征提取、图像配准、冗余消除等高复杂度的计算,占用大量的运算时间等问题。提出了1种互信息熵和Prewitt差测度的Lasso模型关键帧提取算法。该算法首先利用视频分割技术,将视频按照镜头变化分割得到了视频片段;其次利用互信息熵和Prewitt双重特征量提取视频片段中的关键帧并采用边缘匹配算法消除冗余帧序列。最后,得到的关键帧序列用Lasso模型检验收敛性。理论分析和实验结果表明,与基于加权的多视图关键帧提取算法相比,关键帧提取时间平均缩短了28.7s,验证了本文算法的高效性。  相似文献   

7.
《Planning》2017,(2)
为了更准确地检测视频中的场景运动模糊帧,首先利用稀疏表示的图像模糊特征,结合恰可察觉模糊概念,定义1种敏感的图像模糊度度量,用于检测视频序列中的非清晰帧;然后通过计算相邻帧之间的单应矩阵,估计相机的运动速度,并根据运动速度从非清晰帧中选择出观看过程中产生模糊感受的场景运动模糊帧。实验结果表明,所提出的算法可以有效地检测出视频场景运动模糊帧,相比于传统图像模糊检测算法,检测结果更符合人眼观看视频的主观感受。  相似文献   

8.
双流序列回归深度网络的视频火灾检测方法   总被引:1,自引:0,他引:1  
《Planning》2017,(14)
首先构建1个室外多场景大规模火灾视频数据库,不仅标注火焰区域,同时根据火焰区域标注量化的火焰级别标签。结合深度网络视频特征的表征能力,将火灾检测形式化为多类别有序回归问题,提出基于双流序列回归深度网络的火灾检测模型。所提出的方法有效融合了视频帧间的运动信息和关键帧的视觉信息。在所构建的数据库和现有的3个公开火灾测试集上的实验表明,所提出的火灾检测方法准确率显著提高。  相似文献   

9.
由数字图像计算土体位移场时大多使用数字图像相关匹配法,直接使用视频图像计算加筋砂土位移场的工作比较少。本文使用室内加筋砂土试验时拍摄的视频图像,将原始视频图像转换为多帧彩色图像及相应的灰度图像,利用最大相关匹配法对多帧图像进行相关匹配,由匹配点(区域)的移动计算加筋砂土中不同位置的相对位移,求得了任一时刻加筋砂土中的位移场和速度场、任一位置的位移变化过程。本文还对计算结果的主要影响因素进行了讨论。结果表明,本文方法对研究加筋砂土的变形分布、影响因素、变形过程与破坏机理分析具有重要的参考价值。  相似文献   

10.
《Planning》2014,(10)
将视频监控技术应用于交通信息获取与处理,解决行人安全问题,已成为智能交通系统中的一项关键技术。为精准地提取交通场景语义信息,提出了融合时域和空域信息的行人检测算法。通过相邻多帧时域变化和Canny边缘检测算法得到初始检测掩模图像,解决差值局部化和噪声问题;提取空域信息时,引入二次重构和内外标记技术对梯度图像进行修正和分水岭变换,得到空域掩模图像,有效地提高空域分割精度,消除过分割现象;最后将两者结果进行融合和形态学修正,提取出交通场景图像中的运动行人。以北京南站为例进行实验分析,结果表明,该方法能快速准确地检测到较完整的目标信息,在动态场景的行人检测取得了较好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号