首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 454 毫秒
1.
视频图像中的车辆检测跟踪和分类   总被引:3,自引:1,他引:2  
介绍了一种用固定的单摄像头拍摄交通图像,并从图像序列中检测、跟踪、分类车辆的方法。该方法大致可分为3部分:抽取背景图像和图像分割;基于针孔模型的摄像机定标,计算透视投影矩阵;利用区域特征进行匹配跟踪,建立目标链。恢复目标三维信息,采用模型匹配法对车型分类。实验证明方法是简单可行的。  相似文献   

2.
基于视频去噪算法移动机器人视觉定位研究   总被引:3,自引:1,他引:2  
崔鹏 《现代电子技术》2012,35(20):111-113
提出基于视频去噪算法的移动机器人的视觉定位方法,应用运动补偿时域视频去噪算法对视频图像去噪,提取去噪视频图像的图像像素,用摄像机标定方法确定目标空间坐标,扩展卡尔曼滤波Matlab仿真算法对目标进行定位,有效地解决了视频图像的拖尾、重影等现象,实现目标动态定位。实验结果表明视频去噪效果良好,摄像机标定准确,目标定位精确度高,达到了预期效果。  相似文献   

3.
一种新型的视频图像道路目标提取算法   总被引:2,自引:1,他引:1  
道路目标是视频图像判读的一项重要内容.为了准确提取出照片中道路目标的影像,利用CCD摄像机实时摄取道路路面的图像,并对图像进行图像分割、噪声滤除和边缘检测操作,最后在视频图像上提取出了道路目标的边缘.文后的实验结果说明了该算法的先进性和实用性.  相似文献   

4.
为了减小对车辆进行外形超限测量时其他车辆对图像的影响,精确地将目标车辆的轮廓信息分割并测量,提出一种基于形状角、结合分块图像与边缘提取的分割算法。对获取图像进行帧差法削弱背景边缘信息的影响,再用Canny算子边缘提取,将得到的轮廓信息进行基于形状角的识别与提取。提出了一种对图像进行分块分类的图像分割法。该算法有效解决了测量中背景对前景的影响。实验结果表明该算法具有较高的鲁棒性与准确性。  相似文献   

5.
为实现对视频运动目标落点的准确定位与参数分析,并满足其实时性要求,研发了基于多路视频图像的运动目标智能分析系统。该系统综合利用图像预处理和判读技术,在改进ViBe和Mean-Shift等相关算法的基础上,对视频图像进行连续的实时滤波、目标检测和定位以实现对目标参数的智能分析。同时,提出了基于多路视频信息定位目标落点算法和多摄像机协同调度技术。实验结果表明,该系统具有精度高、实时性强等特点,具有较高的实用价值。  相似文献   

6.
基于支持向量机的交通视频人车识别研究   总被引:1,自引:1,他引:0  
提出一种静止摄像机条件下车辆和行人的支持向量机(SVM)识别方法。首先根据背景差分法对监控视频中的运动目标进行检测,提取出运动目标的基本轮廓,然后利用数学形态学方法对目标进一步检测处理。用星形向量表示法对运动目标提取8个特征,以及高度、宽度和高宽比作为另外3个特征,通过构造SVM分类器,实现了基于SVM的图像分类和识别。实验结果表明,该方法能够在视频监控中快速准确地对运动的车辆和行人进行检测和分类,平均识别率达到96.97%。  相似文献   

7.
对视频图像处理中车辆速度检测所涉及的摄像机标定和基于图像匹配的测速算法进行了研究.首先经几何推导得出二维标定算法,得到一个精度满足需要、计算量小的标定算法.然后在图像匹配的基础上,将虚拟线圈和图像匹配算法结合起来,得到匹配前后车辆绝对像素位置.经实地验证,能够比较准确地检测出车辆经过时的瞬时速度,满足实际应用的要求.  相似文献   

8.
为实现对车载设备视频图像中车辆的识别和跟踪,针对图像中的运动目标和动态背景,提出了一种基于特征学习的目标检测和超像素跟踪算法.该算法首先对训练图像进行HOG特征提取,并利用AdaBoost算法得到强分类器.利用强分类器对采集的图像进行车辆检测,从而确定搜索区域.结合对搜索区域的超像素分割结果,采用均值漂移聚类算法实现车辆识别与跟踪.实验结果表明,该算法可以很好地实现视频序列中的车辆识别,提高了目标跟踪的实时性.  相似文献   

9.
车辆检测系统是智能交通系统的重要环节,基于视频图像的车型识别和车辆检测技术研究也越来越多。本文以实时视频为基础,介绍了一种车辆特征提取算法-弹性松弛袋算法,来提取车辆的车长车高特征,从而实现对车辆的检测和分类。本文着重介绍了弹性松弛袋算法提取车型特征的程序实现,通过实验的结果,验证了该算法的可行性。  相似文献   

10.
基于核自组织映射与图论的图像分割方法   总被引:1,自引:1,他引:0  
为了对以特征聚类为基础的图像分割方法进行目标优化并提高分割性能,提出了一种核自组织映射与EGB(efficient graph-based)算法相结合的自适应分割方法。将依据信息理论推导出的核自组织映射应用于图像分割,使得图像经映射聚类后,同一分类内像素的相似度最高且信息熵最大,不同分类间的互信息最小,从而得到最符合图像分割目标的聚类效果。将聚类得到的区域进一步用改进的EGB算法自适应地进行合并,既充分结合了像素的空间特性,又能克服EGB算法的不足,可获得非常准确的分割结果。在综合分析多种图像分割评价方法的基础上,选取了一些量化指标对分割结果进行客观评价。实验及分析结果表明,本文的分割方法准确可靠,其图像分割结果的量化评价指标明显优于EDISON方法。  相似文献   

11.
周衡  仲思东 《半导体光电》2019,40(3):390-394, 400
为实现水位的实时精确监测,提出了一种基于视频图像的水位监测方法,该方法不识别水尺刻度与数字,而是利用水尺刻度对相机进行标定,用图像差分法提取水位变化区域,计算图像水位线坐标,根据相机标定结果算得实际水位高度。该方法算法简便、处理速度快、满足实时监测要求、受水尺刻度限制及污渍等外界环境的影响较小,可以较精确测得水位高度。研究选用两幅分辨率为 640×480的图像进行模拟实验,在图像未满足要求的情况下测得水位平均误差小于0.5cm,当系统满足设计要求时测量精度会进一步提高,该方法可以较好地实现水位的实时精确监测。  相似文献   

12.
为了向相关部门提供更多的过往车辆信息以满足道路交通的需求,设计了一个基于卡尔曼滤波算法的城市交叉路口车辆检测及分类系统,用于对过往的车辆进行检测、计数和分类.首先采用背景差分法和卡尔曼滤波算法对在检测区的车辆进行检测和跟踪;然后使用经过检测、处理的被测车辆图像触发距其最近的相机进行图形分割;最后,通过LDA分类器对分段车辆的几何形状及外观特征进行正确地分类.所提系统的有效性在摄取的3400帧视频序列上得到了验证,实验结果表明,系统的检测率可达97.44%,正确分类率可达88.0%,与先进的方法相比,取得了更好的检测性能.  相似文献   

13.
李坤  吴佳龙  刘中 《电子科技》2015,28(1):106-109,132
设计了基于ADSP-BF561的视频跟踪系统,通过控制摄像机姿态实现对运动目标的自动识别和跟踪。系统采用三帧间差分法与图像分割相结合进行目标识别,利用卡尔曼滤波算法进行目标定位,辅以云台运动控制算法完成目标跟踪。经室内测试,该系统能对运动目标进行有效识别与跟踪,且具有一定的实时性及稳定性。  相似文献   

14.
贾鹏飞  刘全周  彭凯  李占旗  王启配  华一丁 《红外与激光工程》2022,51(6):20210446-1-20210446-8
为提升辅助驾驶系统对于道路环境中车辆的感知能力,通过机器视觉与毫米波雷达信息融合技术对前方车辆进行了检测。融合系统中对摄像头和毫米波雷达进行了联合标定,借助三坐标测量仪确定两者的数据转换的关系,优化了深度学习算法SSD的候选框,提高了车辆的检测速度,选用长焦和短焦两种摄像头进行前方图像采集,并将两者重合图像进行融合,提升了前方小目标图像的清晰度,同时对毫米波雷达数据进行了处理,借助雷达模拟器确定合适阈值参数实现对车辆目标的有效提取,根据雷达有效目标数据对摄像头采集的图像进行选择与建立感兴趣区域,通过改进的SSD车辆识别算法对区域中的车辆进行检测,经过测试,车辆的检测准确率最高达到95.3%,单帧图像平均处理总时间为32 ms,该算法提升系统前方车辆检测的实时性和环境适应性。  相似文献   

15.
Lane detection is a useful technique in modern autonomous vehicles systems, which assists vehicle to accurately localize itself according to detected road lines. Traditional methods leveraged edge detection and Hough transform based algorithms to plot lines along the detected lane. Noticeably, they did not take the informative feature road gradient into account. In addition, most previous deep learning-based algorithms consider lane detection as pixel-wise lane segmentation, where only fixed number of lanes can be detected. In order to solve these limitations, we propose a quality guided lane detection algorithm by modeling the sophisticated traffic context, where variable number of lanes can be satisfactorily handled. Specifically, we first leverage chessboard images for camera calibration to calculate correspondence between real world and image coordinate system. Subsequently, we capture image regions of interest that only contains lane information by leveraging the prior knowledge and image quality scores. Afterwards, we design an end-to-end two-stage CNN architecture for lane detection, where binary lane mask is utilized for lane matching. Comprehensive experiments have demonstrated that our proposed method can cope with variable number of lanes effectively.  相似文献   

16.
针对偏振三维成像系统的高效目标三维点云分割问题,提出一种多维信息融合的高效分割理念。系统采用高分辨率EMCCD相机作为面阵探测器,在一次成像过程中,可同时获得视场中的灰度图像以及三维点云数据。根据该成像特点,建立灰度图的像素坐标与点云数据像素坐标之间的点对点映射关系,结合粒子群优化算法的边缘分割方法,将灰度图中目标分割后的坐标信息映射到三维点云数据中,得到其三维点云数据。该方法将三维点云数据降维处理为二维图像处理,显著降低了计算复杂度,避免了点云数据误差对分割精度造成的影响。实验验证了多维数据融合目标三维点云分割方法的有效性。  相似文献   

17.
白瑞  姜明新 《电子设计工程》2012,20(12):126-128
检测运动物体需要无运动物体的背景图像,所以,首先应用多帧像素平均值法提取了运动视频序列的背景图,从背景图像中分离目标像素,获取目标的质心坐标,并应用质心跟踪法以灰色图像序列为基础,对运动的目标进行实时检测和跟踪。质心跟踪法的目标位置通过质点的中心来确定,该算法计算简单,计算量小,其稳定性与精度主要取决于序列图像的分割及其阀值的确定情况。文中给出了用Opencv实现算法的具体过程和关键代码,并且设计了跟踪运动车辆的控制界面,方便了实时监控。实验结果表明,该方法可以实现视频序列中运动目标的识别,具有实时性、并能给出较好的识别效果。  相似文献   

18.
Fusion of information gathered from multiple sources is essential to build a comprehensive situation picture for autonomous ground vehicles. In this paper, an approach which performs scene parsing and data fusion for a 3D-LIDAR scanner (Velodyne HDL-64E) and a video camera is described. First of all, a geometry segmentation algorithm is proposed for detection of obstacles and ground areas from data collected by the Velodyne scanner. Then, corresponding image collected by the video camera is classified patch by patch into more detailed categories. After that, parsing result of each frame is obtained by fusing result of Velodyne data and that of image using the fuzzy logic inference framework. Finally, parsing results of consecutive frames are smoothed by the Markov random field based temporal fusion method. The proposed approach has been evaluated with datasets collected by our autonomous ground vehicle testbed in both rural and urban areas. The fused results are more reliable than that acquired via analysis of only images or Velodyne data.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号