首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
基于目标跟踪和多特征融合的火焰检测算法   总被引:1,自引:0,他引:1  
针对目前视频火焰检测算法无法达到高检测率、低误检率和实时的工业需求,提出一种基于目标跟踪和多特征融合的火焰检测算法.首先利用混合高斯背景建模获取前景图像,在HSV色彩空间中根据火焰的颜色特性分离出疑似火焰区域,对火焰疑似区域采用卡尔曼滤波器实现运动目标的跟踪,再结合火焰的相似度、区域增长率和跳动频率特征用加权求和得到的值与报警阈值相比,最后根据判断比较确定真实火焰区域,并且实现对火焰的持续跟踪.实验结果证明,该算法能够对火焰区域进行有效的检测与跟踪并且具有良好的实时性和抗干扰能力.  相似文献   

2.
相对传统的视频图像火灾检测方法,提出一种基于多特征匹配的视频图像火灾火焰检测方法.首先,算法采用改进的混合高斯分块模型对监控画面中的动态区域划分;再利用颜色概率统计模型提取动态区域的颜色特征,并分割出疑似火灾区域;最后,通过统计疑似火灾区域圆形度特征并判断火灾火焰是否存在.实验表明:算法对火灾火焰的检测识别准确率较高,并具有较好的实时性和抗干扰性.  相似文献   

3.
针对现有视频图像火焰检测算法前景提取不完整、准确率低和误检率高等问题,提出一种基于改进混合高斯模型(GMM)和多特征融合的视频火焰检测算法。首先针对背景建模,提出了自适应高斯分布数和学习率的改进GMM方法,以提高前景提取效果和算法实时性;然后利用火焰颜色特征筛选出疑似火焰区域,再通过融合改进局部二值模式纹理和边缘相似度特征用于火焰检测。基于支持向量机设计火焰融合特征分类器并进行对比实验,在公开数据集上的实验结果表明,所提算法有效提高了背景建模效果,火焰检测准确率可达到92.26%,误检率低至2.43%。  相似文献   

4.
针对传统火灾检测技术在面对大空间结构建筑及复杂环境中的不足,提出一种基于视频图像检测早期火灾的算法。该算法首先对视频图像进行阈值分割,然后根据火焰的颜色特征获取其中的疑似火焰区域。在此基础上计算疑似火焰区域的圆形度,并将圆形度与其整体特性相结合进行火灾的早期探测和预报。  相似文献   

5.
提出一种基于熵值加权支持向量机(SVM)的火焰检测方法。采用三帧差分算法对视频前景提取(VIBE)算法进行改进,并提出TH-VIBE前景检测算法,提升疑似火焰区域获取的准确率与完整性;利用熵值加权降低纹理特征、面积变化特征、圆形度特征、灰度特征等特征数据的冗余程度并建立熵值加权火焰识别模型,提升火焰识别速率与准确率;最后依据韩国启明大学和土耳其比尔肯大学SPG工作组火焰数据进行实验,火焰检测准确率可达97%,具有较高的鲁棒性。  相似文献   

6.
基于视频图像的火焰识别算法   总被引:1,自引:0,他引:1  
相对传统的火焰识别方法,为提高火焰识别精度,提出了一种基于红外热像仪和彩色摄像机的火焰识别算法。对采集得到的红外图像进行温度阂值分割,得到高温疑似火焰区域,通过三维重建技术匹配彩色摄像机中对应的高温疑似火焰区域,对其RGB空间模型进行色彩分析,排除干扰得到疑似火焰区域。在此基础上分析疑似火焰区域的区域增长特性及闪动特性,提取疑似火焰区域的面积及其轮廓,对其轮廓进行离散余弦变换,计算前后两帧图像轮廓的变化,从而进一步确定真实火灾火焰的发生,及时报警,减少误判率和危害性。实验证明了该算法的准确性和有效性。  相似文献   

7.
针对视频监控中运动小目标难以检测的问题,该文提出一种基于航迹的检测算法。首先,为了降低检测漏警率,提出区域纹理特征与差值概率融合的自适应前景提取方法;其次,为了降低检测虚警率,设计航迹关联的概率计算模型以建立疑似目标在视频帧间的关联,并设置双门限以区分疑似目标中的真实目标与虚假目标。实验结果表明,与多种经典算法相比,该算法能对定量范围内的运动小目标以更低的漏警率和虚警率实施准确检测。  相似文献   

8.
《信息技术》2019,(6):31-34
结合超像素和双树复小波变换(DTCWT)给出了一种基于图像的火焰检测算法。该算法使用简单线性迭代聚类(SLIC)方法对图像进行超像素分割,并采用RGB-HSV混合颜色空间对超像素进行处理,分割出疑似火焰区域;然后利用DTCWT对疑似火焰区域图像进行多尺度多方向分解,分别对高低频系数提取HOG特征和圆形度特征;最后通过特征融合,并使用交叉网络搜查法的SVM实现火焰的识别。大量实验结果表明该算法火焰识别的精度较高。  相似文献   

9.
针对传统火焰检测模型的检测准确度较低和速度慢等问题,提出一种优化的卷积神经网络和超像素分割算法的视频火焰区域检测方法。首先使用火焰图像数据集对模型进行训练和验证,采用卷积核堆叠替换的方法改进Inception模块的结构;其次采用小卷积核替换的方法改进网络的前端结构,并将Focal-Loss函数作为损失函数以提高模型的泛化能力;然后设计InceptionV1模型的参数复杂度优化实验,生成优化的火焰检测网络结构;最后将超像素分割算法提取的火焰超像素语义信息输入优化的InceptionV1模型中,并进一步执行视频火焰区域的定位检测。实验结果表明,所提方法能够增强视频火焰的非线性特征提取能力,火焰检测准确度高于96%,检测速度较原始模型提升2.66倍。  相似文献   

10.
提出了一种采用烟雾颜色混合模型和多特征组合的视频烟雾检 测算法。首先利用混合高斯背景 模型提取烟雾视频的运动区域;然后使用新的烟雾颜色混合模型从运动区域中确定出疑似烟 雾区域;最后采用烟雾的动态特征(运动速度均值 和方差,运动方向,面积增长率)组合分析对疑似烟雾区域进行烟雾识别,剔除非烟雾区域 。通过不同类型烟雾视频的 实验结果表明:对于光照正常,烟雾浓的烟雾类型,本文算法取得了96.57%平均检测成功率;对于光照弱或烟雾浓度稀薄的 烟雾类型,本文算法取得了87.67%平均检测成功率。  相似文献   

11.
Turgay Celik 《ETRI Journal》2010,32(6):881-890
Conventional fire detection systems use physical sensors to detect fire. Chemical properties of particles in the air are acquired by sensors and are used by conventional fire detection systems to raise an alarm. However, this can also cause false alarms; for example, a person smoking in a room may trigger a typical fire alarm system. In order to manage false alarms of conventional fire detection systems, a computer vision‐based fire detection algorithm is proposed in this paper. The proposed fire detection algorithm consists of two main parts: fire color modeling and motion detection. The algorithm can be used in parallel with conventional fire detection systems to reduce false alarms. It can also be deployed as a stand‐alone system to detect fire by using video frames acquired through a video acquisition device. A novel fire color model is developed in CIE L*a*b* color space to identify fire pixels. The proposed fire color model is tested with ten diverse video sequences including different types of fire. The experimental results are quite encouraging in terms of correctly classifying fire pixels according to color information only. The overall fire detection system's performance is tested over a benchmark fire video database, and its performance is compared with the state‐of‐the‐art fire detection method.  相似文献   

12.
针对传统视频SAR(ViSAR)运动目标检测方法存在的帧间配准难度大、快速运动目标阴影特征不明显、虚警概率高等问题,该文提出一种基于改进快速区域卷积神经网络(Faster R-CNN)的视频SAR运动目标检测方法。该方法结合Faster R-CNN深度学习算法,利用K-means聚类方法对anchor box的长宽及长宽比进行预处理,并采用特征金字塔网络(FPN)架构对视频SAR运动目标的“亮线”特征进行检测。与传统方法相比,该方法具有实现简单、检测概率高、虚警概率低等优势。最后,通过课题组研制的Mini-SAR系统获取的实测视频SAR数据验证了新方法的有效性。  相似文献   

13.
孙统义  李林 《电子工程师》2010,36(11):12-16
针对红外视频图像中运动目标的检测问题,提出了一种以OpenCV为平台,以背景差分法为基础的运动目标检测算法,在传统检测方法基础上进行了改进,使用该算法不需要进行背景初始化,能直接检测运动目标,并有效抑制了虚警。利用OpenCV提供的函数库在Visual Studio 2008平台上编程实现。实验结果表明,该方法具有目标跟踪快、检测概率高、实时性好等特点。  相似文献   

14.
胡祝格  赵敏华 《电子科技》2012,25(10):36-39,42
为了解决传统火灾报警系统只对火灾的某一种物理或化学信号进行探测而容易出现误报和漏报的问题,将多传感器复合探测技术和无线通信技术应用到火灾探测报警系统中,设计了一种基于STM32为主控制芯片的智能分布式无线火灾探测报警系统,系统能同时采集CO浓度、烟雾浓度和温度3个火灾参数,利用无线通信技术进行数据传输,采用智能算法对火灾信息进行处理和判断。经调试,该系统能够及时、准确地预警火情。  相似文献   

15.
HOS运动目标分割算法在视频监控中的应用   总被引:2,自引:0,他引:2  
为了提高视频监控中运动目标分割的速度和准确度,研究并实现了一种基于高阶统计量HOS(HigherOrder Statistics)的分割算法.首先根据HOS假设检验处理帧差图,判定像素点是否属于运动区域,阈值通过灰度共生矩阵获得,考虑了背景纹理的慢变化.然后,用矩形框聚类法大致确定运动目标的范围,在该范围内使用形态运算法和首尾扫描法去除空洞.最后,使用模板相与法获得帧图像的运动目标模板,从原图像中分割运动区域.算法采用了由粗到精的分析策略,实验表明,是一种快速稳健的算法.  相似文献   

16.
基于H.264压缩域的运动目标检测算法   总被引:1,自引:0,他引:1  
基于H264压缩域的运动目标检测算法。首先,从压缩码流中提取原始运动矢量场,采用中值滤波法滤除运动场中由噪声引起的运动矢量;再利用从压缩码流中提取的宏块分割类型初步排除一些分块较大的伪运动块;然后采用自适应阈值选取法定位出运动区域;最后,通过已定位的运动区域的特征进一步精确识别出运动目标。算法充分利用了H264码流中的运动矢量信息,简单易于实现,适用于智能监控,视频分析等领域。试验结果表明,该算法检测效果较好,且不需要对压缩码流进行全部解码。  相似文献   

17.
基于视频序列的火灾烟雾颜色检测算法   总被引:2,自引:0,他引:2  
黎粤华  单磊 《半导体光电》2016,37(2):298-302
为了提高视频烟雾检测的准确性,克服图像型火灾烟雾检测对复杂环境的低适应性,实现对火灾烟雾的实时检测,提出了一种基于视频序列的火灾烟雾颜色检测算法.该方法首先采用基于Kalman滤波的背景重建法提取出烟雾区域的像素,然后再将其归一化到RGB空间模型,分析各颜色分量的数据,并将这些表征烟雾颜色信息的数据经Matlab进行曲线拟合分析,最终确定出烟雾颜色的决策条件,并对来自网络的火灾视频和其他运动视频进行测试.实验结果表明:基于视频序列的火灾烟雾颜色检测能够很好地将火灾烟雾和其他干扰物区分开,达到早期预警的目的.  相似文献   

18.
基于动态图像处理技术的动目标检测与跟踪   总被引:3,自引:1,他引:2  
高波  包国彬 《光电技术应用》2010,25(4):73-76,84
针对摄像机与目标同时运动情况下运动目标的检测与跟踪问题,提出了背景匹配法.通过相关匹配算法使背景对齐,结合帧间差分技术有效地将运动目标提取出来;然后通过预测未来路线,运用光流学与对应物的对应方法进行运动目标跟踪.  相似文献   

19.
The performance of Motion Compensated Discrete Cosine Transform (MC‐DCT) video coding is improved by using the region adaptive subband image coding [18]. On the assumption that the video is acquired from the camera on a moving platform and the distance between the camera and the scene is large enough, both the motion of camera and the motion of moving objects in a frame are compensated. For the compensation of camera motion, a feature matching algorithm is employed. Several feature points extracted using a Sobel operator are used to compensate the camera motion of translation, rotation, and zoom. The illumination change between frames is also compensated. Motion compensated frame differences are divided into three regions called stationary background, moving objects, and newly emerging areas each of which is arbitrarily shaped. Different quantizers are used for different regions. Compared to the conventional MC‐DCT video coding using block matching algorithm, our video coding scheme shows about 1.0‐dB improvements on average for the experimental video samples.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号