首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
从视频序列中提取视频目标是基于内容编码中的一项关键技术。提出了将高阶统计运动检测和多尺度分水岭相结合的视频目标分割算法。该算法首先利用高阶统计运动检测算法检测出运动区域,通过后处理得到运动目标的初始模板。然后,用小波变换对视频图像进行多分辨率分解。在最低分辨率上应用分水岭算法分割得到具有精确边缘的分割区域,通过将区域融合后的区域逐步投影到高分辨率图像上并结合高分辨率图像上的分水岭算法逐步提取出具有精确边缘的区域。最后,将运动目标的初始模板和多尺度分水岭分割得到的区域结合起来提取出具有精确边缘的视频对象。实验结果表明该算法能有效地分割和提取出视频序列中的视频对象。  相似文献   

2.
针对视频序列图像中的运动目标分割,论文提出了将运动检测和马尔可夫彩色聚类相结合的运动目标分割算法。该算法首先利用基于统计模型的运动检测算法,通过后处理,得到运动目标的初始模板。然后,利用区域生长算法进行彩色图像的初始分割,在初始分割的基础上应用马尔可夫随机场模型进行彩色聚类,得到具有精确边缘的分割区域。最后,将运动目标的初始模板和彩色精确分割结合起来提取出具有精确边缘的运动目标。实验结果表明该算法能有效地分割和提取出视频序列中的运动目标。  相似文献   

3.
包含运动物体的图像拼接关键技术   总被引:1,自引:0,他引:1       下载免费PDF全文
李兆歆  张大坤 《计算机工程》2010,36(19):210-212
提出一种基于特征点的运动场景图像拼接算法。基于相似变换消除选取在运动物体上的特征点,并使用RANSAC算法进行外点的剔除。在融合阶段,根据齐次变换矩阵求得对2幅图像的差异图像,并执行区域增长算法,从而分割出运动区域。使用一种分段映射算法生成全景图像。实验证明了算法的有效性。  相似文献   

4.
提出了一种在镜头不动的情况下基于累积帧差分割和小波包分析融合技术的运动目标检测方法。这种方法可分为四步:使用改进的累积帧差算法和阈值分割算法完成目标区域的分割,并获得初始运动模板;利用小波包分析算法提取出单帧图像的边缘信息并获得细化的目标区域边缘图;根据初始运动模板和空域边缘图像的融合得到更精确的运动目标模板;最后结合原序列图像检测出完整的运动目标。实验结果表明:这种方法可以有效地从对比度较小和噪声较大的视频序列中较精确地检测出完整的运动目标。  相似文献   

5.
为了解决拼接图像中的模糊、畸形,运动物体图像拼接后会出现重影错位等问题,首先在图像配准阶段通过感知哈希值相似度量准则选取变换效果最佳的权重ωi,j来计算局部投影变换矩阵;然后利用帧间差分法和区域生长算法对差异图像中的运动物体进行分割,对差异性区域进行单采样,其他区域采用线性加权融合;最后,构建了一个用于图像拼接的航空影像数据集并进行实验。实验结果证明,该方法运行耗时增加量较小,不仅有效抑制了重叠区域出现的拼接模糊、严重畸形现象,还能消除包含运动物体图像出现的重影错位,显著提高无人机航拍图像的拼接质量。  相似文献   

6.
介绍了基于视频拼接技术的无人实况转播系统的实现。首先对图像进行预处理,然后使用SURF算法对视频图像进行图像配准拼接,并对拼接图像进行融合。提出了一种基于运动前景提取的全景视频中热点区域确定方法,该方法可平滑追踪热点区域进行提取实现实时转播。本系统的实现节省了视频直播过程中的人力财力。  相似文献   

7.
基于改进活动轮廓的视频对象自动分割及跟踪算法   总被引:1,自引:0,他引:1       下载免费PDF全文
为了能够从视频序列图像中准确地提取出运动视频对象,提出了一种基于改进活动轮廓的视频对象自动分割及跟踪方法。该方法首先采用连续帧间差的4次统计量假设检验来确定视频对象的运动区域,并使用形态滤波消除残余噪声和空洞;然后根据3帧序列图像得到的前后运动区域的相与运算来有效地解决运动视频对象前后帧的遮挡问题,以获得视频对象模板,当提取出视频对象模板的边缘轮廓后,再用梯度向量流场作为外力的改进活动轮廓算法来获得视频对象的精确轮廓;最后以此视频对象的轮廓为基础进行运动补偿,以得到下一帧图像的初始曲线,再使用改进的活动轮廓算法对下一帧图像进行分割,即可实现视频对象的跟踪。该方法不仅能够消除差分图像中的显露背景,得到运动视频对象精确的轮廓,并且可进行多目标的分割与跟踪。  相似文献   

8.
基于帧差和小波包分析算法的运动目标检测   总被引:1,自引:0,他引:1  
提出了一种在镜头不动的情况下基于累积帧差分割和小波包分析融合技术的运动目标检测方法.这种方法可分为四步:使用改进的累积帧差算法和阈值分割算法完成目标区域的分割,并获得初始运动模板;利用小波包分析算法提取出单帧图像的边缘信息并获得细化的目标区域边缘图;根据初始运动模板和空域边缘图像的融合得到更精确的运动目标模板;最后结合原序列图像检测出完整的运动目标.实验结果表明:这种方法可以有效地从对比度较小和噪声较大的视频序列中较精确地检测出完整的运动目标.  相似文献   

9.
视频序列的全景图拼接技术   总被引:10,自引:0,他引:10       下载免费PDF全文
提出了一种对视频序列进行全景图拼接的方法。主要讨论了有大面积的非刚性运动物体出现的序列,不过此方法也同样适用于无运动物体的纯背景序列。为计算各帧间的投影关系,用仿射模型来描述摄像机运动,并用特征点匹配的方法计算出模型中各参数的值。由于用相关法计算的匹配结果准确率比较低,所以用RANSAC(Random Sampling Consensus)对匹配结果进行了筛选,可以准确求出摄像机运动参数。利用运动参数进行投影,然后用多帧相减并求交集,估计出每帧图像中运动物体存在的区域,最后计算得到了全景图。该方法的结果与前人得到的结果进行了比较,证明用此方法能获得质量较高的全景图。  相似文献   

10.
一种动态场景下基于时空信息的视频对象提取算法   总被引:2,自引:0,他引:2       下载免费PDF全文
在实际应用中,许多视频序列具有运动背景,使得从其中提取视频对象变得复杂,为此提出了一种基于运动估计和图形金字塔的动态场景下的视频对象提取算法。该算法首先引入了相位相关法求取运动向量,因避免了视频序列中光照变化的影响,故可提高效率和稳健性;接着再根据参数模型进行全局运动估计来得到最终运动模板;然后利用图形金字塔算法对当前模板内图像区域进行空间分割,最终提取出语义视频对象。与现有算法相比,对于从具有动态场景的视频流中提取运动对象的情况,由于使用该算法能有效地避开精准背景补偿,因而不仅节省了计算量,而且提取出来的语义对象精度较高。实验表明,无论是对动态场景中刚性还是非刚性运动物体的分割,该算法都具有较好的效果。  相似文献   

11.
一种用于动态场景的全景表示方法   总被引:3,自引:0,他引:3  
杜威  李华 《计算机学报》2002,25(9):968-975
针对全景图无法表示动态场景这一问题,提出一种用于动态场景的全景图表示方法,将视频纹理和全景图结合起来,构造动态全景图。系统首先将一系列定点拍摄的图像拼接成全景图,然后用摄像机拍摄场景中周期或随机运动的物体,提取视频纹理,最后视频纹理与全景图对准并融合,生成动态全景图。动态全景图既保持静态全景图全视角漫游的优点,又使得场景具有动态的特征,极大地增强漫游的真实感。  相似文献   

12.
: This paper presents a motion segmentation method useful for representing efficiently a video shot as a static mosaic of the background plus sequences of the objects moving in the foreground. This generates an MPEG-4 compliant, layered representation useful for video coding, editing and indexing. First, a mosaic of the static background is computed by estimating the dominant motion of the scene. This is achieved by tracking features over the video sequence and using a robust technique that discards features attached to the moving objects. The moving objects get removed in the final mosaic by computing the median of the grey levels. Then, segmentation is obtained by taking the pixelwise difference between each frame of the original sequence and the mosaic of the background. To discriminate between the moving object and noise, temporal coherence is exploited by tracking the object in the binarised difference image sequence. The automatic computation of the mosaic and the segmentation procedure are illustrated with real sequences experiments. Examples of coding and content-based manipulation are also shown. Received: 31 August 2000, Received in revised form: 18 April 2001, Accepted: 20 July 2001  相似文献   

13.
提出了一种新的利用MPEG-4编码过程中宏块运动估计的结果来提取运动对象的算法。该算法在运动估计过程中加入相应的准则,充分利用运动估计中宏块的运动矢量和最小平均绝对差值来获取运动区域的掩模矩阵,最后经过消除噪声点和空洞获得精确的掩模矩阵从而获得运动对象,该方法能在编码过程中进行。实验证明:利用该方法得到了理想的分割效果,较传统基于像素的运动对象提取的方法大大节省了处理时间。  相似文献   

14.
视频运动对象的自动分割   总被引:28,自引:4,他引:28  
视频运动对象的分割技术在运动视觉检测和新的MPEG-4视频编码标准中十分重要,提出了一种运动对象分割算法,该算法采用序列图像帧间差的高阶统计量(Higher Order Statistics,HOS)假设检验,确定运动对象的位置,自动分离运动区域与背景;根据三帧序列图像中前后帧差图像灰度边缘重合的部分为中间帧运动对象的边缘来有效地解决运动对象前后帧的遮挡问题;采用形态滤波的方法填充分割出的运动对象二值模板中的空洞,消除残余噪声及平滑边缘,分析和实验证明,该算法需要调整的参数少,抗干扰能力强,可以高效率地进行运动对象的自动分割,此外,该算法具有潜在的并行机制,易于实现实时运动图像处理。  相似文献   

15.
数字视频监控系统中实时运动检测系统的研究   总被引:5,自引:0,他引:5  
在数字视频监控系统中,从视频流里捕获出序列图像并进行实时运动检测是一项重要的功能。采用两个进程分别实现视频图像的捕获和运动检测,命名管道作为两个进程之间数据通信的桥梁。提出了一种基于帧差交集快速视频分割法、阈值面积算法结合数学形态学运算提取运动目标区域的数字图像处理算法,然后再进行运动目标的跟踪定位,实现实时运动检测。  相似文献   

16.
鉴于压缩域视频运动分割方法在分割速度上的优越性,提出一种基于H.264的压缩域视频运动对象分割方法,对初始的运动矢量场进行去噪、中值滤波、校正和累积处理,得到更可靠的运动矢量场,用改进的模糊C-均值聚类算法分割出视频序列中的运动对象。实验结果表明,该方法可以快速准确地提取出视频序列中的运动对象。  相似文献   

17.
基于二维透射变换的视频全景图拼接算法   总被引:1,自引:0,他引:1  
视频序列全景图拼接技术是视频图像分析的关键技术之一。针对帧间运动模型为二维投影变换的常见视频序列,提出了一种全景图拼接算法.该算法首先采用改进的基于RANSAC的特征点匹配算法对相邻帧的运动参数进行估计,接着采用直接法对各帧与全景图间的运动参数进行精确调整,最后运用自适应中值滤波绘制出全景图。实验结果表明,该方法能够生成较高质量的全景图,基本能实现无缝连接。  相似文献   

18.
基于假设检验和区域合并的视频对象分割   总被引:4,自引:0,他引:4  
提出了基于假设检验和区域合并的视频对象分割算法。初始分割采用分水岭算法,接着根据颜色相似性进行区域合并,然后利用光流场估计和全局运动估计获得全局运动的残余误差,最后以各个区域的残余误差数据进行假设检验和小区域验证来确定运动区域,通过组合所有的运动区域即可分割出具有准确边缘的完整视频对象。对MPEG-4测试序列的实验结果表明了本算法具有良好的分割性能。  相似文献   

19.
提出了一种对视频图像进行实时目标分割及跟踪的新方法。该方法利用基于时间片的运动历史图像(tMHI)的灰度阶梯轮廓,对存在的子运动区域进行包围划分并予以标记,实现视频图像中运动目标的实时分割,进而将每帧tMHI图像中各个运动区域同场景中运动目标连续关联起来,实现对多运动目标的轨迹跟踪。为了提高分割质量,对tMHI进行了改进处理,去除了大部分噪声干扰,取得了明显的改善效果。实验表明,该方法可以有效地分割并跟踪视频中的多个运动目标,鲁棒性好,检出率较高,并且处理速度较快,达到了实时性的要求,还解决了局部粘连的问题。  相似文献   

20.
This paper explores a robust region-based general framework for discriminating between background and foreground objects within a complex video sequence. The proposed framework works under difficult conditions such as dynamic background and nominally moving camera. The originality of this work lies essentially in our use of the semantic information provided by the regions while simultaneously identifying novel objects (foreground) and non-novel ones (background). The information of background regions is exploited to make moving objects detection more efficient, and vice-versa. In fact, an initial panoramic background is modeled using region-based mosaicing in order to be sufficiently robust to noise from lighting effects and shadowing by foreground objects. After the elimination of the camera movement using motion compensation, the resulting panoramic image should essentially contain the background and the ghost-like traces of the moving objects. Then, while comparing the panoramic image of the background with the individual frames, a simple median-based background subtraction permits a rough identification of foreground objects. Joint background-foreground validation, based on region segmentation, is then used for a further examination of individual foreground pixels intended to eliminate false positives and to localize shadow effects. Thus, we first obtain a foreground mask from a slow-adapting algorithm, and then validate foreground pixels (moving visual objects + shadows) by a simple moving object model built by using both background and foreground regions. The tests realized on various well-known challenging real videos (across a variety of domains) show clearly the robustness of the suggested solution. This solution, which is relatively computationally inexpensive, can be used under difficult conditions such as dynamic background, nominally moving camera and shadows. In addition to the visual evaluation, spatial-based evaluation statistics, given hand-labeled ground truth, has been used as a performance measure of moving visual objects detection.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号