首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 152 毫秒
1.
基于累积量和主运动方向的视频烟雾检测方法   总被引:5,自引:1,他引:4       下载免费PDF全文
视频烟雾检测具有响应速度快、非接触等优点。但现有的视频检测方法误报率比较高。通过分析早期火灾烟雾运动规律,提出了一种适用于普通视频的烟雾检测方法。为了加快检测速度,将视频图像分割成大小相等的块,并估计每个块的运动方向。采用滑动时间窗口生成块运动方向时间序列,在此时间序列的基础上计算块的累积量和主运动方向。累积量可以反映出运动持续的程度,而主运动方向表明每个块最可能的运动方向,可以有效地抑制噪声的干扰。根据累积量和主运动方向提取出3维特征矢量,采用贝叶斯分类器进行烟雾的检测。实验结果表明,该方法鲁棒性高、速度快,能够准确地检测烟雾的出现。  相似文献   

2.
城镇森林交界域视频烟雾检测算法   总被引:1,自引:0,他引:1  
《计算机工程》2018,(1):258-262
针对城镇森林交界域火灾烟雾视频检测准确率低问题,提出一种融合多项图像特征和深度学习的视频烟雾检测算法。通过Vi Be方法提取前景变化区域,根据烟雾模糊特征和角点信息排除部分纹理细节较明显的区域。在此基础上,以颜色特征为判据进一步缩小检测范围,使用累积帧差法排除运动刚体的干扰,利用深度学习模型识别目标是否为烟雾。采用级联分类器的方式设计整体算法,并使用并行计算技术进行实现。实验结果和工程案例表明,该算法能够实现城镇森林交界域火灾早期烟雾的精准识别。  相似文献   

3.
单目视频中无标记的人体运动跟踪   总被引:8,自引:0,他引:8  
提出一种人体运动跟踪算法,从无关节标记的单目视频中获取人体运动,利用一个带外观模板的人体关节模型,通过学习得到的运动模型及基于外观模型的相似性计算,巧妙地利用粒子滤波的概率密度传播策略鲁棒地跟踪普通单目视频中的人体运动,当出现跟踪丢失时,能在后续序列中自动恢复正确跟踪,且能较好地处理遮挡和自遮挡问题,实验表明,该算法鲁棒性好,跟踪结果令人满意。  相似文献   

4.
突发灾害事件应急响应的关键是预警系统是否能够提供早期的报警。该文通过分析早期火灾烟雾的运动规律,提出了一种利用背景运动检测和YUV空间建立烟雾的颜色模型,分割出烟雾疑似区域。在灰度空间使用二维离散小波变换对烟雾疑似区域及对应的背景区域进行能量分析,并改进了论文[11]中稀疏光法在多目标检测时必须手动标注的问题。我们使用该方法对森林火灾、操场和室内烟雾的视频进行了测试,效果十分理想。  相似文献   

5.
变电站的环境特殊性要求站内火灾检测准确、快速,烟雾检测是早期火灾检测中的常用方法.针对变电站特殊环境,提出一种快速烟雾检测算法.首先,利用改进的ViBe算法检测变电站实时监控视频中的运动区域,再通过颜色特征确定疑似烟雾区域,然后结合烟雾面积增长特性和移动特性识别烟雾区域.实验结果表明:这种算法能够检测到不同场景中的烟雾,对远距离、稀薄烟雾也能有效检测,满足变电站火灾检测实时性、准确性要求,能够应用于变电站场景烟雾检测.  相似文献   

6.
适用于遮挡问题的目标跟踪算法   总被引:2,自引:0,他引:2  
提出一种基于网格模型的目标跟踪算法.该算法首先进行遮挡区域检测,然后进行网格结点的运动估计和网格更新过程完成目标的多帧跟踪.改进的遮挡区域检测算法有效地提高了检测准确度,从而确保遮挡区域的准确跟踪;网格结点的运动估计是通过特征窗口运动补偿匹配完成,可以有效地克服块效应.实验证明,该算法解决了二维运动估计时网格模型在遮挡区域存在的问题,并可以有效地进行目标准确跟踪.  相似文献   

7.
基于码本模型和多特征的早期烟雾检测   总被引:1,自引:0,他引:1       下载免费PDF全文
提出一种基于码本模型和多特征的早期烟雾检测算法。首先,利用码本模型进行前景提取;然后,结合烟雾的颜色模型和形状特征模型检测前景中的疑似烟雾区域;最后,利用烟雾的动态特性,有效地降低误检率,提高算法的鲁棒性。通过ROC曲线对比,实验结果表明,该算法具有良好的烟雾检测能力。同时,能够满足实时性要求,具有较高的实用价值。  相似文献   

8.
针对视频目标跟踪中遮挡问题处理不佳和快速运动目标易丢失的问题,提出一种云自适应PSO(CAPSO)优化粒子滤波的视频目标跟踪算法。算法利用粒子滤波预测目标区域在视频下一帧图像的位置,结合颜色直方图统计特性,引入CAPSO算法并根据粒子适应度值将粒子集分成三个子群,分别采用不同的惯性权重生成 策略,普通种群的惯性权重由X条件云发生器自适应地调整,利用云模型云滴的随机性和稳定倾向性特点,使惯性权重满足快速寻优能力又具有随机性。通过CAPSO优化,降低了粒子滤波重采样帧数,减少了算法的运算量,同时提高了搜索精度,能较好处理目标遮挡问题。并且CAPSO算法通过采用这三种不同的惯性权重生成策略,可自适应地平衡算法的全局和局部搜索能力来调节粒子的搜索范围,有效地解决了快速运动目标易丢失的问题。仿真实验结果表明,新算法对视频目标跟踪中的遮挡和快速运动目标易丢失的情况具有较好的实时性和准确性。  相似文献   

9.
针对现有的视频火灾烟雾探测方法实时性差,误报率和漏报率都比较高的问题,在深入分析烟雾图像特征的基础上,发现早期烟雾运动缓慢且主要运动方向呈向上趋势,在连续帧中像素的强度变化具有一致性的特点,通过Harris检测算法找到强度变化剧烈和图像边缘的特征点,根据光流场与运动场的对应关系由成像平面中光流的变化估计烟雾的相对运动,计算运动矢量信息,实现多特征烟雾检测。该算法是基于烟雾灰度变化的特征点作为检测对象,大大减少了待处理的数据量,缩短了算法处理时间,综合了烟雾的局部特性和全局特性,具有较强的鲁棒性和较高的检测准确率。  相似文献   

10.
针对早期森林火灾烟雾图像序列,提出了一种基于时间-空间域联合的烟雾前景分割算法。首先,对烟雾的瞬时动态数据和累积动态数据进行分析,然后,进行二值化、形态学处理,得到了烟雾前景轮廓。通过扫描烟雾前景轮廓和填充烟雾前景掩模后即可得到烟雾前景图像。实验证明,该算法兼顾了分割效果和实时性,较好地对森林火灾烟雾进行了提取。  相似文献   

11.
视频烟雾检测研究进展   总被引:3,自引:0,他引:3       下载免费PDF全文
目的 视频烟雾检测具有响应速度快、不易受环境因素影响、适用面广、成本低等优势,为及早预警火灾提供有力保障。近年涌现大量视频检测方法,尽管检测率有所提升,但仍受到高误报率和高漏报率的困扰。为了全面反映视频烟雾检测的研究现状和最新进展,本文重点针对2014年至2017年国内外公开发表的主要文献,进行全面的梳理和分析。方法 该工作建立在广泛文献调研的基础上,立足于视频烟雾检测的基本框架,围绕视频图像预处理、疑似烟区提取、烟雾特征描述、烟雾分类识别等处理阶段,系统地对最新文献进行分析和总结。此外,对区别于传统框架的深度学习检测方法亦进行了相关归纳。结果 重点依据烟雾运动特征和烟雾静态特征这两类,对疑似烟区提取方法进行梳理;从统计量特征、变换域特征和局部模式特征3个方面对烟雾特征描述方法进行梳理,并从颜色、形状等七个角度进行总结;从基于规则和基于学习这两个视角,梳理烟雾识别和决策方法;最后,对于基于深度学习的方法单独进行了阐述。文献通过系统地梳理,凝练出视频烟雾检测近几年取得的进展和尚存在的不足,并对视频烟雾检测发展前景进行展望。结论 针对视频烟雾检测的研究一直备受青睐,越来越多性能优秀的检测算法不断涌现。通过对现有研究进行全面梳理和系统分析,期望视频烟雾检测能取得更大的进展并更好地应用于工业领域,为火灾预警提供更有力的保障。  相似文献   

12.
现有的视频烟雾检测方法大多通过运动检测提取疑似烟区,并依据经验手工设计提取烟雾特征,在复杂场景中检测准确率不高。针对以上问题,提出了一种基于时空双路3D残差卷积网络的视频烟雾检测方法,基于混合高斯背景模型与原始视频帧的小波低频分量差进行疑似烟区提取,其次构造时空双路3D残差卷积神经网络,并引入注意力机制加权融合烟雾时空域特征,实现端对端的烟雾识别。实验结果表明,该方法可以得到更为完整的疑似烟区,尤其对于过于稀薄和浓厚的烟雾分割效果较好,且相比于传统的烟雾检测方法和2D的烟雾检测卷积网络,在烟雾检测准确率上得到了提高。  相似文献   

13.
基于混合高斯运动检测模型与多特征的烟雾识别算法   总被引:1,自引:0,他引:1  
为了有效克服复杂环境下动态、静态疑似烟雾物体的干扰,实现对烟雾的实时准确检测,提出基于混合高斯运动检测模型与多特征分析的烟雾识别算法。首先应用优化的混合高斯运动分析模型对视频图像序列进行运动区域提取,然后依据烟雾的颜色特性、形状不规则性及面积扩散特点,对提取的疑似烟雾运动区域进行分析与筛选,从而判定出其是否为烟雾。实验结果表明:该算法可实时提取视频中的烟雾区域,并有效剔除疑似烟雾区域的干扰,具有良好的烟雾识别能力。  相似文献   

14.
目的 视频烟雾检测在火灾预警中起到重要作用,目前基于视频的烟雾检测方法主要利用结构化模型提取烟雾区域的静态和动态特征,在时间和空间上对烟雾信息作同等或相似处理,忽略了视频数据在时间线上的连续性和特征的非结构化关系。图卷积网络(GCN)与神经常微分方程(ODE)在非欧氏结构与连续模型处理上具有突出优势,因此将二者结合提出了一种基于视频流和连续时间域的图烟雾检测模型。方法 目前主流的视频烟雾检测模型仍以离散模型为基础,以规则形式提取数据特征,利用ODE网络构建连续时间模型,捕捉视频帧间的隐藏信息,将原本固定时间跨度的视频帧作为连续时间轴上的样本点,充分利用模型的预测功能,补充帧间丢失信息并对未来帧进行一定程度的模拟预测,生成视频帧的特征并交给图卷积网络对其重新建模,最后使用全监督和弱监督两种方法对特征进行分类。结果 分别在2个视频和4个图像数据集上进行训练与测试,并与最新的主流深度方法进行了比较,在KMU (Korea Maritime University)视频数据集中,相比于性能第2的模型,平均正样本正确率(ATPR值)提高了0.6%;在2个图像数据集中,相比于性能第2的模型,正确率分别提高了0.21%和0.06%,检测率分别提升了0.54%和0.28%,在视频单帧图像集上正确率高于第2名0.88%。同时也在Bilkent数据集中进行了对比实验,以验证连续隐态模型在烟雾动态和起烟点预测上的有效性,对比实验结果表明所提连续模型能够有效预测烟雾动态并推测烟雾起烟点位置。结论 提出的连续图卷积模型,综合了结构化与非结构化模型的优势,能够获得烟雾动态信息,有效推测烟雾起烟点位置,使烟雾检测结果更加准确。  相似文献   

15.
基于颜色直方图和小波变换的视频烟雾检测   总被引:1,自引:0,他引:1  
孙建坤  杨若瑜 《计算机科学》2014,41(12):251-254,287
从视频中自动识别烟雾在火灾早期预报警、尾气识别等实际应用中具有重要意义。烟雾检测的难点之一在于如何排除与烟雾颜色相近的运动对象的干扰。为了保证检测效果和实时性,提出使用静态的小波统计特征来排除汽车、行人等干扰区域。该算法首先使用背景剪除法获取运动区域,然后利用颜色直方图映射来提取符合烟雾色彩特征的疑似区,最后分别对背景和相应的视频帧做小波变换并对二者求差,根据差值图像的统计特征来去除疑似区域中的非烟雾物体。实验结果表明,该方法正确率较高,检错率较低,且基本达到实时效果。  相似文献   

16.
To solve the problem of high false alarm and high missed detection in the complex environment of early smoke detection based on video, a method based on motion extraction of suspected areas is proposed and a multi-scale 3D convolutional neural network with input of 6 frames(6M3DC) is designed for video smoke detection. Firstly, the motion regions are obtained through the background difference model after average filtering and the positions of the block in which the motion regions are located are calculated, and then the motion blocks are extracted by color judgment and mean HASH algorithm and the nonconforming blocks are updated to the background image. Finally, by combining the suspected blocks of the same region of 6 consecutive frames as the input for the 3D convolutional neural network for detection, blocks detected as smoke are marked and non-smoke blocks are updated to the background image. The experimental results show that the algorithm is adaptive to slow moving smoke and can detect smoke in complex environment.  相似文献   

17.
郭洋  马翠霞  滕东兴  杨祎  王宏安 《软件学报》2016,27(5):1151-1162
随着治安监控系统的普及,越来越多的监控摄像头被安装在各个交通道路和公共场所中,每天都产生大量的监控视频.如今,监控视频分析工作主要是采用人工观看的方式来排查异常,以这种方式来分析视频内容耗费大量的人力和时间.目前,关于视频分析方面的研究大多是针对目标个体的异常行为检测和追踪,缺乏针对对象之间的关联关系的分析,对视频中的一些对象和场景之间的关联关系等还没有较为有效的表示和分析方法.针对这一现状,提出一种基于运动目标三维轨迹的关联视频可视分析方法来辅助人工分析视频,首先对视频资料进行预处理,获取各个目标对象的运动轨迹信息,由于二维轨迹难以处理轨迹的自相交、循环运动和停留等现象,并且没有时间信息就难以对同一空间内多个对象轨迹进行的关联性分析,于是结合时间维度对轨迹进行三维化扩展.该方法支持草图交互方式来操作,在分析过程中进行添加草图注释来辅助分析.可结合场景和对象的时空关系对轨迹进行关联性计算,得出对象及场景之间的关联模型,通过对对象在各个场景出现状况的统计,结合人工预先设定的规则,可实现对异常行为报警,辅助用户决策.  相似文献   

18.
The Segmentation According to Natural Examples (SANE) algorithm learns to segment objects in static images from video training data. SANE uses background subtraction to find the segmentation of moving objects in videos. This provides object segmentation information for each video frame. The collection of frames and segmentations forms a training set that SANE uses to learn the image and shape properties of the observed motion boundaries. When presented with new static images, the trained model infers segmentations similar to the observed motion segmentations. SANE is a general method for learning environment-specific segmentation models. Because it can automatically generate training data from video, it can adapt to a new environment and new objects with relative ease, an advantage over untrained segmentation methods or those that require human-labeled training data. By using the local shape information in the training data, it outperforms a trained local boundary detector. Its performance is competitive with a trained top-down segmentation algorithm that uses global shape. The shape information it learns from one class of objects can assist the segmentation of other classes.  相似文献   

19.
In a rescue operation walking robots offer a great deal of flexibility in traversing uneven terrain in an uncontrolled environment. For such a rescue robot, each motion is a potential vital sign and the robot should be sensitive enough to detect such motion, at the same time maintaining high accuracy to avoid false alarms. However, the existing techniques for motion detection have severe limitations in dealing with strong levels of ego-motion on walking robots. This paper proposes an optical flow-based method for the detection of moving objects using a single camera mounted on a hexapod robot. The proposed algorithm estimates and compensates ego-motion to allow for object detection from a continuously moving robot, using a first-order-flow motion model. Our algorithm can deal with strong rotation and translation in 3D, with four degrees of freedom. Two alternative object detection methods using a 2D-histogram based vector clustering and motion-compensated frame differencing, respectively, are examined for the detection of slow- and fast-moving objects. The FPGA implementation with optimized resource utilization using SW/HW codesign can process video frames in real-time at 31 fps. The new algorithm offers a significant improvement in performance over the state-of-the-art, under harsh environment and performs equally well under smooth motion.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号