首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
针对核相关滤波目标跟踪算法中对局部上下文区域图像提取的HOG特征图在复杂环境下不能保证目标跟踪的精度问题,提出了一种核相关滤波与孪生网络相结合的目标跟踪算法.首先在首帧输入图像中提取HOG特征图并建立相关滤波器模板,同时提取经过孪生网络的目标区域图像特征图;然后若后续帧输入图像帧数不为5的倍数则提取仿射变换HOG特征图,否则提取经过孪生网络的搜索区域图像特征图;最后根据遮挡处理的结果自适应获取目标位置并更新模型和最终相关滤波器模板.仿真实验结果表明本文算法在保证目标跟踪精度的前提下具有满足实时跟踪要求的跟踪速率.  相似文献   

2.
针对传统目标跟踪算法中当目标被遮挡和受光照强度变化等多种因素干扰时,相关滤波器模板更新不准确,误差逐帧累积最终导致目标跟踪失败,提出了一种基于VGG网络的鲁棒目标跟踪算法。首先通过VGG网络对第1帧输入图像中的局部上下文区域提取平均特征图来建立相关滤波器模板;然后通过VGG网络对后续帧输入图像中的局部上下文区域提取平均特征图和仿射变换平均特征图;其次与核相关滤波跟踪算法相结合,自适应确定目标位置和最终目标位置;最后自适应更新最终平均特征图和最终相关滤波器模板。实验结果表明,本文算法在目标被遮挡和受光照强度变化等多种因素干扰时,仍具有较高的目标跟踪精度和较强的鲁棒性。  相似文献   

3.
基于时空上下文信息的目标跟踪算法利用目标与背景之间的时空关系,在一定程度上解决静态遮挡问题,但当目标出现较大遮挡或快速运动目标被背景中物体遮挡(动态遮挡)时,仍然会出现跟踪不准确或跟丢的情况.基于此种情况,文中提出基于遮挡检测和时空上下文信息的目标跟踪算法.首先利用首帧图像中压缩后的光照不变颜色特征构造并初始化时空上下文模型.然后利用双向轨迹误差对输入的视频帧进行遮挡情况判断.如果相邻帧间目标区域特征点的双向匹配误差小于给定阈值,说明目标未出现严重遮挡或动态遮挡,可以利用时空上下文模型进行准确跟踪.否则利用文中提出的组合分类器对后续帧进行目标检测,直至重新检测到目标,同时对上下文模型和分类器进行在线更新.在多个视频帧序列上的测试表明,文中算法可以较好地解决复杂场景下较严重的静态遮挡和动态遮挡问题.  相似文献   

4.
针对战机对地侦查视频图像中地面旋转运动背景下运动目标检测高虚警、低实时性的问题,提出了一种基于改进光流法的旋转运动背景下对地运动目标实时检测算法。首先提取图像的特征点,在特征点处计算光流运动矢量,并通过光流矢量场估算背景运动矢量。根据战机飞行高度自适应计算目标像素尺寸,网格化分块待检测图像;然后将各个特征点光流矢量与背景运动矢量相比较,获得备选目标特征点。最后统计分块备选目标特征点密度,判断目标位置区域。对2组实验视频中央360像素×432像素区域进行目标检测实验,结果表明该算法能够准确地检测出地面运动目标,虚警率低。平均每帧检测耗时分别为29.460 ms和31.505 ms,满足战机对地运动目标检测的实时性。  相似文献   

5.
考虑到视频序列固有噪声特征的特点,提出一种基于压缩感知的视频异源篡改检测算法。提取视频中每帧图像的噪声信息并建立噪声矩阵,通过引入压缩感知理论对噪声矩阵进行压缩,极大地降低每帧图像噪声信息的冗余度,对压缩噪声矩阵使用[cos]相似性衡量,得到帧图像间的相似度矩阵,并构造篡改度量,利用参数模型对视频的异源篡改图像进行检测。实验表明提出算法能以较小的压缩比对视频序列中的异源篡改位置进行有效检测,并得到比现有两种算法更高的篡改检测准确率。  相似文献   

6.
红外与可见光视频序列融合算法研究   总被引:1,自引:0,他引:1  
提出了一种基于动态目标区域检测的红外与可见光图像视频序列融合方法;应用改进的混合帧差法对红外图像序列中的目标区域进行检测,并采用一种新的基于非下采样Contourlet变换的图像融合规则,对红外与可见光图像中的目标区域进行融合,并将融合后的目标区域与已配准的可见光图像的背景相结合得到最终的融合图像;实验结果表明相对于其他传统的方法,新算法所得图像的信息熵、标准差和互信息值最大,融合效果要优于其他算法;不仅具有良好的红外图像的目标特征,同时也保留了可见光图像的细节信息,并具有平移不变性以及良好的实时性。  相似文献   

7.
提出了一种自适应调整帧间时间差的方法来检测运动目标,并结合采用YCbCr空间及非线性分段色彩变换的肤色检测模型,对视频图像中的运动目标检测候选肤色区域,采用人脸的特征检测方法检测候选人脸区域.最后,根据在前后几帧中采用融合运动目标与肤色模型的人脸检测算法启动跟踪,获得初始运动信息,后继帧中提出一种新的运动区域预测与肤色边缘拟合椭圆匹配的算法,试验表明该算法实时、有效.  相似文献   

8.
为了更好地实现全局运动估计快速、准确的处理,根据全局运动中视频图像序列的时间冗余特性,提出一种自适应SIFT(Scale-invariant feature transform)算法。基于最近三次模型匹配的结果,采用Lagrange抛物线插值来预测需要匹配的参考帧和当前帧图像的重叠区域。在重叠区域上提取特征点和进行特征匹配,既能够消除视频图像序列中存在的大量信息冗余,加快每帧图像的处理速度,又可以提高待匹配特征点的有效性,减少误匹配。实验结果表明,改进后的算法自适应能力强、速度快、匹配精度高,基本满足实时定位。  相似文献   

9.
基于卡尔曼滤波的弱小目标实时检测与跟踪   总被引:1,自引:0,他引:1       下载免费PDF全文
提出一种基于卡尔曼滤波的弱小目标实时检测与跟踪方法。计算每帧图像上所有星点到参考星点的距离,利用目标与背景恒星运动特性上的差异检测出运动目标。针对漏检问题,采用卡尔曼滤波算法估计目标在漏检帧上的位置,通过对图像的重分割寻找丢失目标,利用目标的运动信息建立连续的目标链。实验结果表明,该方法能实现高检测率和低虚警率的实时检测。  相似文献   

10.
CamShift算法是一种实时的跟踪算法,它是利用目标的颜色直方图模型得到每帧图像的颜色投影图,并根据上一帧跟踪的结果自适应调整搜索窗口的位置和大小,从而得到当前图像中目标的尺寸和中心位置。本系统主要是基于CamShift的算法设计一个对运动目标跟踪检测系统,本系统既可以对室内环境的运动目标进行跟踪,也可以对视频流中的运动目标进行跟踪。  相似文献   

11.
近年来,随着计算机视觉技术和数字图像处理技术的不断发展,基于视频分析的火焰检测技术获得越来越多的关注。鉴于基于视频的火焰检测对消防安全、人民生命和国家财产安全等具有重要的实际研究意义,以及其理论基础和影响因素的多样性,本文对目前已有的基于视频的火焰检测算法所涉及的关键技术进行了综述。首先介绍了目前基于视频的火焰检测技术的处理流程,即预处理、特征提取、分类识别;其次着重分析火焰的特征,包括基于单帧的静态特征和基于多帧的动态特征,同时列举了典型的火焰特征提取算法;然后重点总结多特征融合策略和用于火焰识别的常用分类器以及深度学习识别方法;最后对基于视频的火焰检测技术的研究难点和未来发展进行了较为详细的分析探讨。  相似文献   

12.
烟焰作为火灾最为明显的标志,对于其进行实时检测,在火灾监控方面有着重要的意义.传统的离子式、光电式、吸烟式等烟雾探测器受到空间和时间的限制,不能进行实时全面的探测[1].本文提出了一种基于视频的烟焰检测算法,采用帧差法提取出差值图像,经过图像处理,获得了理想的烟焰轮廓,根据轮廓大小来确定被监测区域是否有火灾的发生.实验证明,该方法实时准确、灵敏度高、抗干扰能力强、适用范围广,具有广阔的应用前景.  相似文献   

13.
针对电站锅炉火焰监视、温度场测量和燃烧诊断中存在的问题,提出了一种以DSP为核心的嵌入式图像火焰监测系统,在对彩色图像法测量温度场的原理论述的基础上,对图像采集和处理各部分的电路和系统软件进行了分析和说明。通过优化设计,使系统的数据处理能力和实时性得到大幅的提升。经过200MW机组的试验表明,系统能在1帧时间内完成一幅图像的处理与特征量的提取,在1s内完成锅炉燃烧状况的诊断,火焰监测和燃烧诊断实时性得到了保证。温度场测量最大偏差不会超过50℃,相对误差小于5%,能满足系统对测量精度的要求。  相似文献   

14.
以室内环境为应用背景,结合火灾火焰的静态和动态特征,采用了一种神经网络与加权融合的火灾火焰识别算法,对室内火灾火焰进行实时快速判决。对视频图像进行可疑运动检测,再对颜色特征进行提取,在HIS颜色空间中建立新的颜色判据,然后获取圆形度和尖峰数;研究了火焰频闪特性,将这些特征信息作为神经网络的输入端,最终利用加权融合的算法,判定区域是否为火焰。  相似文献   

15.
在火焰检测中对火焰运动区域提取和闪烁特征分析大都分开进行,本文在提取运动区域的同时分析该区域的闪频特性,即将火焰的运动特征和闪烁特征同时提取。首先基于Ohta颜色空间找出图像中具有火焰颜色的疑似区域,其次根据视频图像某个位置在一段时间内变化的程度和次数是否都达到一定程度提取具有闪烁特性的运动区域,最后根据具有火焰颜色的连通区域是否包含这种运动区域,且颜色区域与运动区域的面积比例是否达到一定比值,来判断该连通区域是否为火焰。实验结果表明该方法在提取运动区域的同时能排除不具火焰闪烁特征的前景,且能在运动区域提取不完整的情况下保持较高的火焰检测率和较低的误检率。  相似文献   

16.
New generation vessels are equipped with fire detecting sensors; however, fire may not immediately be detected if it is far away from the sensors. The fire process therefore cannot be recorded. A video-based fire alarm system is developed to overcome the drawbacks of traditional fire detection equipment. This paper presents a video-based flame and smoke detection method for vessels. For flame detection, the dominant flame color lookup table (DFCLT) is created by using the fuzzy c-means clustering algorithm. The changed video frames are automatically selected and the changed regions deduced from these frames. An elementary, medium, or emergency flame alarm is then triggered by comparing the pixels of changed regions with the DFCLT. The changed video frames are automatically selected for smoke detection. The changed regions are deduced from these frames. If the shape of the changed region conforms to the characteristic which the top area is wider than the bottom area, a dangerous smoke alarm is sounded. The experimental results show that the proposed fire detection approach can detect dangerous flames and smoke, effectively and efficiently.  相似文献   

17.
基于火焰图像动态特征的火灾识别算法   总被引:16,自引:0,他引:16  
提出了一种基于火焰图像动态特征的火灾识别算法.首先在HSI空间对捕捉的图像进行彩色分割,通过相邻两帧图像判断视频中是否存在可疑火焰.当有可疑火焰存在时,再连续捕捉多帧图像,进行火焰中心定位并提取火焰动态特征,最后判断是否发生火灾.实验结果表明,该算法具有比较好的鲁棒性,能够有效地提高火灾识别的准确率、降低误报漏报率.  相似文献   

18.
王静静  张小刚  陈华 《计算机工程》2012,38(23):219-223
燃煤火焰图像黑把子区域的边缘模糊或不完整,无法直接使用Canny检测算子准确检测出边缘信息。针对该问题,提出基于稀疏去噪的双树复小波变换(DTCWT)火焰图像融合检测方法。利用稀疏去噪对2幅单帧火焰图像进行DTCWT融合,采用Canny检测算子检测边缘。实验结果表明,该方法能够得到噪声较低的图像和比较完整的黑把子边缘信息。  相似文献   

19.
近年来火灾事故频发,对生态环境,社会经济都造成了严重影响,视频监控系统在火灾预防和环境监控中都有非常重要的作用。针对传统的视频火焰检测方法需要手工提取火焰特征且识别率低、误检率高的缺点,提出了一种基于特征检测,多目标跟踪和深度学习的火焰检测算法。通过高斯混合模型运动检测方法对视频中的动态目标进行提取,再经过HSI与RGB结合的颜色模型进行筛选,得到疑似火焰目标,对提取的目标进行多目标跟踪算法跟踪,最终对稳定存在的目标通过CaffeNet模型进行判别,得到火焰判别结果。实验证明,本算法实现了对视频火焰的准确检测,能对火焰进行有效识别,对火焰视频数据集上的平均识别精度达到98.79%,并能适应实时检测火灾的需求。  相似文献   

20.
传统的基于物理信号的火焰识别方法易被外部环境干扰,且现有火焰图像特征提取方法对于火焰和场景的区分度较低,从而导致火焰种类或场景改变时识别精度降低。针对这一问题,提出一种基于局部特征过滤和极限学习机的快速火焰识别方法,将颜色空间信息引入尺度不变特征变换(SIFT)算法。首先,将视频文件转化成帧图像,利用SIFT算法对所有图像提取特征描述符;其次,通过火焰在颜色空间上的信息特性进一步过滤局部噪声特征点,并借助关键点词袋(BOK)方法,将特征描述符转换成对应的特征向量;最后放入极限学习机进行训练,从而快速得到火焰识别模型。在火焰公开数据集及真实火灾场景图像进行的实验结果表明:所提方法对不同场景和火焰类型均具有较高的识别率和较快的检测速度,实验识别精度达97%以上;对于包含4301张图片数据的测试集,模型识别时间仅需2.19 s;与基于信息熵、纹理特征、火焰蔓延率的支持向量机模型,基于SIFT、火焰颜色空间特性的支持向量机模型,基于SIFT的极限学习机模型三种方法相比,所提方法在测试集精度、模型构建时间上均占有优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号