共查询到16条相似文献,搜索用时 140 毫秒
1.
一种视频图像序列中运动对象的分割与跟踪算法 总被引:2,自引:0,他引:2
本文提出了一种视频图像序列中运动对象的分割与跟踪算法。该算法通过Canny算子检测出差帧图像的边缘信息,并结合当前帧与背景帧的边缘图像,提取出运动对象。在后续帧中通过建立前帧感兴趣运动对象与当前帧中各运动对象的帧间向量来跟踪当前帧中感兴趣的视频对象。实验结果表明,该算法可行,而且由于该算法简单、计算复杂度小,能很好地满足实时监控系统中对感兴趣运动对象的提取与跟踪。 相似文献
2.
一种采用背景统计技术的视频对象分割算法 总被引:6,自引:0,他引:6
利用背景统计技术从累积的帧差信息中构建出完整、可靠的背景区域,并将其与当前帧相比较,得到初始对象分割掩膜;再对之进行后处理,以消除噪声影响和平滑对象边界,从而获得较好的对象分割掩膜,并提取出视频对象。该算法不需要预知运动对象的形状、数目等,就能较好地从静止背景中分离出目标,实验证明,它具有一定的实用性和鲁棒性。 相似文献
3.
基于差异积累的视频运动对象自动分割 总被引:1,自引:0,他引:1
针对视频运动对象的自动分割,本文给出了一种基于差异积累的自动分割算法。与传统的基于运动信息变化检测方法不同,该算法通过累积的帧差信息构建出可靠的背景,与当前帧比较进而提取出视频运动对象。本文提出了一种增强的基于Otsu法的自适应阈值化方法,能更准确地对背景差图像进行阈值化分割,克服了传统Otsu法阈值化容易失效的问题。改进的基于区域生长的定位方法更能避免传统方法的误定位及重定位的问题。实验结果表明,本文算法具有较好的实时性、自适应性以及鲁棒性,可以较为可靠地建立背景模型并进行实时更新,适用于刚体或非刚体存在平缓的光照变化以及摄像头微抖动的视频运动对象的自动分割。 相似文献
4.
5.
基于标记的多尺度分水岭视频目标分割算法 总被引:2,自引:1,他引:1
针对视频目标提取的问题,提出了基于标记的多尺度分水岭视频目标分割算法.该算法以帧间变化检测为基础,通过改进的最小Tsallis交叉熵进行去噪、滤波,经形态学处理后得到运动目标初始二值掩模,并利用初始二值掩模得到用于分水岭算法的前景与背景标记,用该标记修正当前帧的多尺度形态学梯度图像,最后进行分水岭分割,得到具有精确边界的视频对象.实验结果表明,该算法能有效地分割和提取视频序列中的单个、多个以及快速运动的目标,继承了变化检测和分水岭算法速度快的优点,克服了分水岭容易产生过分割的缺点,具有较强的适用性. 相似文献
6.
研究了无平台信息的视频图像拼接,提出了基于相似性积累与光束法平差的机载视频图像拼接方法.该方法借鉴字符串匹配的基本思想,用基于相似性积累的帧匹配方法解决无平台信息下的帧间优化匹配问题;采用基于光束法平差的空间变换参数估计方法消除序贯拼接所可能产生的累积误差,并消除序贯拼接所可能产生的累积误差,并给出了相应的优化算法.利... 相似文献
7.
8.
空中红外小目标并行分割算法 总被引:1,自引:0,他引:1
为提高空中红外小目标检测速度,提出了一种基于灰值形态学序列图像膨胀累加、背景估计和自适应阈值分割的并行结构小目标分割算法。该算法对灰值膨胀运算后的相邻三帧图像进行累加以增强小目标能量;将灰值形态学开、闭运算的平均值作为背景估计图像;采用自适应阈值算法从二者相减的差图像中分割出可能目标;其中小目标能量增强和背景估计采用并行处理结构。基于VisualC 6.0编程进行了实验,结果表明,算法对连续三帧768像素×576像素红外视频采集图像的处理时间为3.73s,较常规串行分割算法快一倍以上。 相似文献
9.
10.
运动分割是视频分析的重要基础步骤。本文研究了从视频序列中提取运动目标的算法。该算法将自适应背景建模和彩色图像分割相结合而得到具有精确边缘的运动目标。在背景建模中,采用混合高斯模型描述像素点的状态,利用高斯分布特性区分噪声、背景、运动。彩色图像分割运用MeanShift迭代算法对图像进行颜色聚类得到一致的颜色区域。实验结果表明该的算法在固定场景下能够精确分割运动目标。 相似文献
11.
12.
低信噪比图象中运动目标的实时检测 总被引:4,自引:0,他引:4
在低信噪比条件下,要从图象中以视频速率检测出运动目标存在不少困难,提出一种用帧间邻域高位比较法检测当前帧的运动目标的方法。这种方法包括选择处理窗口对当前象素及其邻域象素编码,存储和比较。 相似文献
13.
14.
15.
Video prediction is the problem of generating future frames by exploiting the spatiotemporal correlation from the past frame sequence. It is one of the crucial issues in computer vision and has many real-world applications, mainly focused on predicting future scenarios to avoid undesirable outcomes. However, modeling future image content and object is challenging due to the dynamic evolution and complexity of the scene, such as occlusions, camera movements, delay and illumination. Direct frame synthesis or optical-flow estimation are common approaches used by researchers. However, researchers mainly focused on video prediction using one of the approaches. Both methods have limitations, such as direct frame synthesis, usually face blurry prediction due to complex pixel distributions in the scene, and optical-flow estimation, usually produce artifacts due to large object displacements or obstructions in the clip. In this paper, we constructed a deep neural network Frame Prediction Network (FPNet-OF) with multiple-branch inputs (optical flow and original frame) to predict the future video frame by adaptively fusing the future object-motion with the future frame generator. The key idea is to jointly optimize direct RGB frame synthesis and dense optical flow estimation to generate a superior video prediction network. Using various real-world datasets, we experimentally verify that our proposed framework can produce high-level video frame compared to other state-of-the-art framework. 相似文献
16.
目的 为解决外包装行业对产品外观进行检测时,采集视频图像存在抖动失真的问题.方法 提出一种基于L1范数优化路径的视频稳像算法,采用SURF算法和FREAK算法对视频序列帧中的特征点进行检测和描述;然后,使用KNN算法和RANSAC算法对相邻帧间的特征点进行匹配和筛选;最后,通过L1范数优化算法对序列帧进行校正和去黑边处理,得到稳像视频.结果 在处理前景无运动和前景有运动的2类视频时,稳像前后视频的平均PSNR值分别提升了5.094 dB和4.273 dB,并且相对于常用的特征匹配算法,文中算法能显著降低相机路径的主动平滑因子.结论 文中算法能够有效地解决视频抖动失真的问题,提高抖动视频的质量,具有一定的鲁棒性. 相似文献