共查询到20条相似文献,搜索用时 593 毫秒
1.
视频监控中出入口人数统计的难点在于人流密集时对每个人体的准确分割。通过学习的方法得到人头检测的分类器,并在垂直拍摄图像中提取人头候选区域,以分离相互靠近的人体目标,进而根据人头的运动特征剔除静止误检区域,根据误检目标检测频率低及其响应位置不连续的特征剔除动态误检区域。最后提出一种简易可行的过线跟踪方案以完成计数。实验中对各种复杂情况的过线视频进行测试,正确率能够达到95%以上。与传统方法相比,本文方法解决了多人过线或搬货物过线时传统方法难以准确完成的行人分割和计数,更适于实际情况的人数统计。 相似文献
2.
基于视频的行人车辆检测与分类 总被引:1,自引:0,他引:1
针对传统智能监控中行人车辆检测与分类算法存在目标分割不完整、分类准确率低等问题,提出一种基于视频的行人车辆检测与分类算法。利用领域信息动态调整置信区间构造混合高斯模型,采用卡尔曼滤波预测目标下一帧的位置。通过自适应EM聚类方法提取目标长宽比和面积作为特征,将目标分为行人和车辆。在模型估计过程中假设相邻帧目标做匀速直线运动,推导出目标面积变化满足线性关系,并对目标跟踪和分类进行修正,进一步提高检测准确性。实验结果表明,该算法的人车检测准确率达到90%以上,分类准确率达到80%以上。 相似文献
3.
4.
公共区域监控视频数据目标特征跟踪定位方法 总被引:2,自引:0,他引:2
为了提高公共区域监控视频的目标定位检测能力,需要进行目标特征跟踪定位算法设计,提出一种基于图像超分辨率重建的公共区域监控视频数据目标特征跟踪定位方法。构建公共区域监控视频的三维图像重建模型,采用边缘层的高分辨融合方法进行公共区域监控视频图像数据的三维结构重组,提取公共区域监控视频的关键特征点,用图像退化模型进行公共区域监控视频数据目标特征检测,结合线性滤波模型使得监测输出图像满足最优匹配特征解,提高对公共区域监控视频数据目标特征跟踪能力。引入引导滤波方法进行公共区域监控视频数据的图像超分辨重建,实现对目标特征准确跟踪定位。仿真结果表明,采用该方法进行公共区域监控视频数据目标特征跟踪定位的准确性较高,图像重建能力较强,归一化均方根误差较小。 相似文献
5.
6.
7.
利用深度神经网络模型识别行人目标并检测具有十分高的价值。现实高密度行人检测场景中由于硬件基础以及网络性能消耗等问题的影响,常常需要选取处理速度高、硬件条件要求低的网络且同时兼顾视频监控的连续特性,因此选取了轻量级MobileNet-SSD网络来高效处理人头目标并引入帧间差分的方式,来有效对人头的椭圆特征目标进行跟踪;结合相关数理方法实现行人跨线计数的高性能人流量检测解决方案。在不同数据集上同现今一流的检测模型作比较,该方法皆表现出优良的检测性能。 相似文献
8.
视频监控中一种完整提取运动目标的检测算法 总被引:2,自引:0,他引:2
提出一种视频监控中完整、精确提取运动目标前景的检测算法.首先对彩色图像建立混合高斯模型,由背景差分法得到基本准确的前景图像;然后和对称差分法图像综合,得到完整可靠的运动目标图像;再利用亮度信息消除运动目标阴影;最后利用形态学滤波和连通区域面积检测进行后处理.实验结果表明,该算法检测的运动目标前景信息完整准确,对固定场景下的视频监控系统具有一定实用价值. 相似文献
9.
基于均值漂移和边缘检测的轮廓跟踪算法 总被引:3,自引:0,他引:3
实时的轮廓跟踪算法可以为视频监控系统提供物体的轮廓信息以供对物体类别、物体行为等进行识别.提出一种基于均值漂移和边缘检测的轮廓跟踪算法.方法中,首先利用均值漂移算法跟踪得到目标物体的中心位置,同时用高斯统计模型进行背景更新,从前景图像和背景图像中分别得到具有相同位置和大小的前景矩形区域和背景矩形区域,然后用背景分割的方法得到目标物体区域,再对目标物体区域进行边缘检测就得到了目标物体的轮廓,进而实现了对目标物体的轮廓跟踪.实验表明,可以实时、准确、稳定地对目标物体进行轮廓跟踪. 相似文献
10.
目的 当前,目标跟踪问题常常会通过在线学习、检测的方法来解决。针对在线学习过程中,分类器训练需要花费大量时间以提高其识别准确率的问题,提出使用Adaboost算法级联弱分类器,在训练一定帧数后仅进行检测的方法来达到实时和准确的折中。方法 首先针对跟踪问题简化了haar特征,以降低特征计算量。同时考虑到经典的Adaboost算法可能并不适合跟踪过程中存在的正负样本不均衡问题,提出在样本权重更新公式中引入一个新的调整因子项并且结合代价敏感学习来提高目标识别率的方法。最终给出使用简化的haar特征作为描述子,改进的代价敏感Adaboost作为分类器的目标跟踪算法。结果 对20组视频进行跟踪实验,本文算法的平均代表准确率高于压缩跟踪算法约26%,高于原始代价敏感算法约11%;本文算法的视频处理平均帧率高于压缩跟踪算法约38%。结论 本文提出的新代价敏感Adaboost算法对目标的识别、跟踪具有较高的准确率及较快的处理速度,并具有一定的抗干扰能力。特别对人等非刚性目标能够进行较好跟踪。 相似文献
11.
针对视频序列,Codebook背景建模算法能检测出其中的运动物体,但却无法识别行人.而大部分基于支持向量机(SVM)训练的行人分类器,需要通过滑动窗口遍历图像检测行人.为加快行人检测的速度,提出将传统的行人分类器融入到Codebook背景建模算法中,通过背景建模算法为行人检测提供候选区域,减少搜索范围,降低了行人误检率;并根据行人的特点,构建临时块模型定期将满足条件的前景区域更新到背景模型中,解决了Codebook背景建模算法不能应对光照突变的问题.实验结果表明:所提算法能应对光照突变所带来的干扰,实现视频行人实时检测. 相似文献
12.
一种基于多特征和机器学习的分级行人检测方法 总被引:4,自引:0,他引:4
针对单幅图像中的行人检测问题,提出了基于自适应增强算法(Adaboost)和支持向量机(Support vector machine, SVM)的两级检测方法, 应用粗细结合的思想有效提高检测的精度.粗级行人检测器通过提取四方向特征(Four direction features, FDF)和GAB (Gentle Adaboost)级联训练得到,精密级行人检测器用熵梯度直方图(Entropy-histograms of oriented gradients, EHOG)作为特征, 通过支持向量机学习得到.本文提出的EHOG特征考虑到熵, 通过分布的混乱程度描述,具有分辨行人和类似人的物体能力. 实验结果表明,本文提出的EHOG、粗细结合的两级检测方法能准确地检测出复杂背景下不同姿势的直立行人, 检测精度优于以往Adaboost方法. 相似文献
13.
14.
为了解决复杂环境下如树木摇摆、水波晃动等波动式干扰及光照变化对运动目标检测产生影响的问题,给出了一种基于码本模型的运动目标检测算法。考虑到实际场景中背景的变化主要体现在亮度方面,首先对视频序列图像进行颜色空间转化,由RGB空间转化到YUV空间,然后利用Box模型优化了码本模型参数和训练策略。目标检测时,采用局部背景更新方法,即利用帧差法确定变化区域,结合分层码本思想,实时更新背景模型,以达到精确提取运动目标的目的。对比实验表明在背景中存在扰动或者光照发生变化等情况下,该算法都能够对运动目标进行有效检测,具有一定实用性和鲁棒性。 相似文献
15.
16.
为了有效消除复杂动态背景对运动物体检测的影响,提出一种新的基于HSV颜色空间的码书模型。该模型的特点是:1)引入具有较强前后景区分能力的HSV颜色空间,有效减少伪目标的检测;2)采用四元素码字,实现较前人九元素码字更快的训练和更低的存储;3)设计新的码字学习和更新策略,实现简单和快速的码字学习和运动目标检测。同时提出新的算法评价方法:覆盖率—准确率曲线,以反映运动物体检测算法对连续视频序列的检测性能。使用覆盖率—准确率曲线评价的实验结果证明,所提出的码书模型可以有效检测复杂背景下的运动物体。 相似文献
17.
假定图像序列的背景图像已经获得,提出一种结合时空背景差和闭合轮廓拟合的运动人体目标检测算法。算法以较小的阈值获得当前帧的背景差分图像,并搜寻最大连通域为初始前景目标;构造加权高斯滤波器,提取初始前景目标边缘;拟合前景目标轮廓,提出2 bit区域选择法提取不连续弧段的端点,根据类间最小距离准则构造闭合轮廓,结合帧间差分提取最终前景轮廓,标注运动目标位置。仿真实验表明,该算法能准确提取出运动目标,并标注目标位置,在背景环境发生变化时同样可以准确检测到运动目标,具有较好的鲁棒性。 相似文献
18.
雷达引导的视频联动监控模型及算法 总被引:1,自引:0,他引:1
针对视频安防监控系统中出现的监视区域有限、目标定位困难等问题,利用雷达监测范围广、不受光学条件影响的特性,建立了雷达引导的视频联动监控模型,并在此基础上提出了目标定位算法和多目标选择算法。首先,根据雷达检测到的目标信息,自动计算出运动目标在系统联动模型中对应的摄像机方位角和俯仰角,从而引导摄像机准确锁定目标并实时监控追踪。然后,当监控场景中出现多个目标时,采用多目标选择算法,将目标的离散程度、径向速度及其与摄像机之间的距离进行数据加权融合,选择出优先级别最高的目标进行重点监控。实验结果表明,所提目标定位算法对于行人与车辆的定位准确率分别达到0.94和0.84,能够实现目标的准确定位,多目标选择算法可在复杂环境中有效选择出最佳监控目标,具有良好的鲁棒性和实时性。 相似文献
19.
在监控场景下,由于监控资源短缺,行人异常行为容易发生漏检。针对该问题,提出了一种视频监控场景下的人体异常行为识别的方法,辅助监控人员及时发现异常。使用OpenPose对图像中行人进行人体骨架提取。针对图卷积网络对关节点特征聚合方式单一的问题,融合了基于图注意力网络(graph attention network,GAT)的图注意力机制。在改进后的图卷积网络的基础上,利用时空图卷积神经网络(spatial temporal graph convolutional networks,ST-GCN),对行人关节点信息进行异常行为识别。实验结果表明,提出的识别算法对定义的行为识别准确率达85.48%,能够准确地识别监控视频中行人的异常行为。 相似文献