首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 191 毫秒
1.
针对存在更复杂运动模式的无序运动人群密集场景,提出了一种有监督的密集场景人群分群检测算法,不仅能够实现运动前景的自动定位和跟踪,而且还能够在有先验信息的条件下准确定位分群区域。结合个体之间运动轨迹时空距离特征、运动方向特征、格兰杰因果性特征、热能图特征以及运动相关性特征,采用结构化支持向量机在训练集上进行训练,对测试集人群进行了分组测试。选用了大量真实室内外密集人群无序运动场景视频进行测试,试验结果表明,该方法对密集人群分组有较好的处理效果。  相似文献   

2.
针对存在更复杂运动模式的无序运动人群密集场景,提出了一种基于多层自适应聚类模型的分群检测算法.以基于高斯混合模型的背景去除算法和自适应初始化聚类算法为核心,通过建立多层自适应聚类模型实现密集人群的分群检测.实验数据库选用了大量真实室内外密集人群运动场景视频,并通过大量对比实验验证了算法的有效性、可靠性和优越性.  相似文献   

3.
准确地检测出手掌轮廓线的角点是对在线掌纹图像进行精确定位的关键.目前已有的角点检测算法不能自动地提取出定位有用的角点.通过分析手掌轮廓线的8-邻域链码在角点附近的变化规律,提出了一种快速而有效的掌纹图像的轮廓特征点检测方法.首先,采用LOG边缘算子检测出二值掌纹的图像的边缘并用轮廓跟踪方法获得掌轮廓线的8-邻域链码;其次,根据手掌轮廓的8-邻域链在特征点附近的变化规律精确地检测出手掌轮廓特征点;最后,根据检测出的特征点建立参考坐标系,对掌纹图像进行定位.实验结果表明该方法是快速而有效的.  相似文献   

4.
针对群体性异常事件中人群状态突变场景发生时的运动特征,提出结合背景差分和光流法的检测算法.对图像背景差分提取前景寻找特征点,利用光流法预测特征点位置,将特征点以光流运动方向为依据划分后处理数据,得到累积加速度进行判断.该算法弥补了单独使用背景差分算法检测准确率低和单独使用光流法检测效率低的缺陷,通过将特征点以光流运动方向划分处理数据,大幅度提高了检测的准确性和稳定性.经过实验测试,结果表明,该算法在人群状态突变异常事件检测中有较高的准确性,能够满足实时性要求,较同类检测算法在综合性能上有显著提高.  相似文献   

5.
为了满足自动上料机器人对视觉识别与定位算法高效性、高实时性的要求,提出了预检测+精检测的两步检测法.在预检测阶段,采用Bresenham圆对已提取的安全套边界点集进行曲率分类,根据边界曲率趋势筛选出特定的边界点集并求出矩形掩膜区域.在精检测阶段,在矩形掩膜区域内生成ORB特征算子检测和BRISK描述子.采用最近邻域算法进行模板匹配,利用RANSAC算法剔除误匹配.结果表明,本算法比单纯的ORB+BRISK、BRISK等算法快5~8倍;同时继承了ORB与BRISK算法的旋转不变形和尺度不变性,提升了安全套形变时顶部的识别与定位精度.  相似文献   

6.
基于邻域加权的多层次模糊边缘检测算法   总被引:1,自引:0,他引:1  
针对目前边缘检测方法在低对比度图像、噪声图像中检测效果不理想的问题,本文结合微分算子和模糊边缘检测的优点,提出一种基于邻域加权的多层次模糊边缘检测方法。首先,利用微分算子计算图像梯度特征,依据图像梯度特征对图像进行自适应地分层;然后构造模糊函数,用模糊函数增强不同强度的图像梯度特征,取得了较好的边缘检测结果。仿真实验表明:基于邻域加权的多层次模糊边缘检测算法能较好地检测低对比度图像的边缘,同时能有效抑制椒盐噪声、高斯噪声对图像边缘检测的干扰。  相似文献   

7.
针对背景动态变化的场景,提出了一种基于全方位视觉的运动目标检测跟踪方法.采用统计方法建立背景模型,并实现背景模型的实时更新;利用减背景法和改进的二值图像连通域算法实现运动区域提取、分割;引入形态学算子计算目标区域体态比和紧密度,过滤背景干扰物;采用卡尔曼滤波与匹配矩阵相结合实现多个运动目标的跟踪;通过目标在HSV颜色空间中的H值、目标间的欧氏距离和目标相交面积等特征融合,提高目标跟踪的鲁棒性.实验表明,所设计的方法能实现实时准确的运动目标检测与跟踪.  相似文献   

8.
针对MIC算子不能区分部分边缘点和角点的缺陷,提出一种自适应边缘点滤除算法。在边缘清晰的情况下,使用求USAN区域的方法过滤掉边缘点;在边缘模糊的情况下,使用模板较大的插值方法在核心点邻域计算其角点响应值。实验证明,该算法能够很好地区分出边缘点和角点。  相似文献   

9.
为在动态场景中准确完成运动目标的提取,提出一种新的基于MRF的运动目标提取方法.即提出在双尺度二阶邻域各向同性的MRF模型中,利用最小二乘法对初始分割结果进行MRF初始参数的自动求取,通过ICM算法实现最大后验概率的估计问题,获得MRF检测结果.采用形态学中的闭运算进行区域填充处理,根据二值化图像水平和垂直投影的顶点坐标实现运动目标区域的准确提取.对标准图像序列Coastguard和实际拍摄的动态场景图像序列的实验分析表明,提出的方法具有较高的精度和适应性,能够有效地完成运动目标的准确提取.  相似文献   

10.
针对移动航拍视频中车辆检测准确度低的问题,提出一种基于三邻域点二值梯度轮廓(Three-neighbor-point Binary Gradient Contour,TBGC)特征的航拍车辆检测算法。对相邻帧图像进行SURF(speeded-up robust features)特征点提取匹配,利用角度判别剔除错误匹配点完成图像配准,采用帧间差分获得运动目标的候选区域。由于传统二值梯度轮廓(Binary Gradient Contours,BGC)特征忽略中心像素特性,提出基于3×3邻域相邻像素点量化操作的TBGC特征。提取候选区域的TBGC特征,并利用支持向量机(Support Vector Machine, SVM)完成最终的航拍视频车辆检测。实验中利用提出的TBGC特征在8个数据集上分别与BGC1、LBP、HOG特征进行对比实验,实验结果表明TBGC算法的检测率明显优于传统经典算法,平均检测率为93.09%,并且具有较好的鲁棒性。  相似文献   

11.
An approach to track multiple objects in crowded scenes with long-term partial occlusions is proposed.Tracking-by-detection is a successful strategy to address the task of tracking multiple objects in unconstrained scenarios,but an obvious shortcoming of this method is that most information available in image sequences is simply ignored due to thresholding weak detection responses and applying non-maximum suppression.This paper proposes a multi-label conditional random field (CRF) model which integrates the superpixel information and detection responses into a unified energy optimization framework to handle the task of tracking multiple targets.A key characteristic of the model is that the pairwise potential is constructed to enforce collision avoidance between objects,which can offer the advantage to improve the tracking performance in crowded scenes.Experiments on standard benchmark databases demonstrate that the proposed algorithm significantly outperforms the state-of-the-art tracking-by-detection methods.  相似文献   

12.
阴影检测在车辆检测中具有关键作用。针对目前车辆检测算法中阴影常被误检为前景目标的问题,提出了一种基于多源信息的阴影检测算法。首先进行前景目标的提取;然后分别进行基于边缘、HSV颜色空间和光学不变性信息的阴影检测;最后根据三种信息检测结果的综合分析确定阴影点。实验结果表明,该算法具有很好的阴影检测效果。  相似文献   

13.
视频中运动前景目标的分割是计算机视觉领域的一项关键问题, 在视频监控、检索、事件检测等多个方面具有重要应用价值. 现有视频前景目标分割技术主要针对静态场景, 在动态场景下难以获取良好效果. 该文提出一种高斯混合模型与光流残差相结合的前景目标分割方法. 该方法使用高斯混合模型建模, 提取初步的前景区域; 利用光流残差进一步滤除其中动态纹理背景干扰; 采用形态学处理获得前景目标. 实验显示, 与现有方法相比, 该方法可更准确地从动态场景中分割出前景目标轮廓.  相似文献   

14.
Existing video smoke detection methods have a low detection accuracy in complex scenes and cannot detect smoke areas in video frames accurately. In this paper, a phased smoke detection algorithm that combines the smoke movement process and the target detection algorithm is proposed. First, an improved ViBe algorithm based on smoke color features is used to extract the continuously moving smoke in video. Then, the YOLO v3 model is used as the target detection network. The channel attention mechanism is added to the residual structure of its backbone network. Focal-loss and GIoU are utilized to improve the loss function. According to the test of the smoke image data set, the detection time of the improved network on a single picture is 38.4ms and the mAP reaches 92.13%, which is 2.19% higher than that by the original model. While extracting smoke motion, the same frame is sent to the improved YOLO v3 for smoke detection. Finally, comprehensive discrimination is made based on the smoke detection results in stages. Public smoke video test results show that the algorithm has an average detection rate of 98.88%, which proves that the algorithm has a strong adaptability, a high detection efficiency in complex scenes and a high practical application value.  相似文献   

15.
针对传统高斯模型实时性差的问题,该文提出了一种快速的背景更新策略.首先对彩色图像建立混合高斯模型,根据场景中象素点的稳定性来调整模型参数的更新速度;其次利用混合颜色空间的阴影检测算法消除前景图像的运动阴影;最后对该文方法进行了验证性实验,结果表明提出的运动目标检测方法有效、实时性好、对光照有较强鲁棒性.  相似文献   

16.
针对旋转复杂背景中红外运动小目标检测误检率高、实时性差等问题,提出了目标检测新算法。首先对图像进行中值滤波预处理,计算图像光流场,提取特征点,估算背景光流;然后设置阈值,判断提取备选目标特征点集合;最后通过特征点光流矢量角度、目标灰度值区间、目标特征点区域边缘检测的方法,排除备选目标特征点集合中的背景特征点,实时准确检测旋转复杂背景中红外运动小目标。实验结果表明,该算法能够准确地检测出红外多个运动小目标,检测率93.8%,平均虚警率0.126次/帧,平均每帧耗时15.53 ms,每帧图像处理的最大时间为20.45 ms,能够满足运动目标检测对实时性的要求。  相似文献   

17.
提出了一种新的抗摄像机频繁抖动的视频分割算法.采用分层马尔可夫随机场(MRF)模型对视频各帧图像进行多分辨率建模,利用视频序列中帧图像的空间关系来提高分割的准确性,通过Gibbs采样算法求得最大后验概率(MAP),从而实现在摄像机抖动情况下对视频目标的准确分割.在强光、多目标以及复杂背景等情况下对视频序列的车辆目标进行分割.经过实验对比,新算法的分割效果明显优于背景累积相减分割算法以及高斯混合模型方法.  相似文献   

18.
UAV video has many advantages of flexible view,continuous view and wide monitoring scope,and at the same time,there are many problems,such as crowded targets,strong motion noises and so on,which make target detection difficult.To solve these problems,this paper proposes a video vehicle detection algorithm based on the interframe target regression network.According to the characteristics of crowded vehicles in UAV video,soft non maximum suppression is proposed as the detecting-box merging strategy of FCOS,and thus a single-frame vehicle detector is constructed.In order to deal with the problem that the single-frame detector can be easily disturbed by motion noise when it is directly applied to video detection,thus resulting in the change of the confidence level for the same target,an interframe target regression network is designed.The target features of adjacent multiple frames are fused by using interframe movement continuity,and the fused features are matched with the target features of the current frame to output the prediction results.Finally,the detection performance is improved by correcting prediction results through single-frame detection results.Compared with FCOS and FGFA,the average precision of the proposed algorithm is improved by 2% and 5% respectively,reaching 47.42%.Experimental results show that it is better than the existing FCOS and FGFA,and has better robustness and generalization.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号