首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
在非结构环境下,基于视频检测目标车速为目的的关键问题是:如何利用视频序列准确、高效地得到运动目标的实时信息。基于视觉感知机制的车速检测是一种新方法,该方法以视觉机制为启发,首先从图像中学习初级视皮层细胞超完备基;然后基于超完备基视觉计算模型,以神经元响应系数表征目标,并根据背景与目标响应系数差值与动态阈值的比较识别运动目标;通过迭代实现目标跟踪;在目标跟踪的基础上,根据不同视频序列中车辆特征匹配法得到车辆的位移,最后实现车速检测。实验结果表明,该算法能够在实时条件下检测实际道路场景的不同类型车辆速度,达到96.55%以上的准确率,并且与传统方法相比较提高了车速检测的准确性和鲁棒性。  相似文献   

2.
针对动态背景下运动目标检测过程中对检测算法实时性和鲁棒性的要求,提出了一种基于二进制鲁棒不变尺度特征(BRISK)的运动目标检测算法.通过改进的BRISK算法检测特征点;为了保证匹配精度和速度,采用K最近邻(KNN)算法进行特征点匹配;运用基于随机抽样一致性(RANSAC)的全局运动参数估计法获取最优全局运动参数;采用帧间差分法进行运动目标检测.实验结果表明:改进的BRISK算法减少了49.8%的特征点数目,KNN算法去除了85.9%的特征点对;在各种场景下能够准确地检测出运动目标,与以往算法相比检测效果较好.  相似文献   

3.
基于视频图像Harris角点检测的车辆测速   总被引:2,自引:2,他引:2       下载免费PDF全文
为了方便快速地进行车速测量,提出了一种用于测量视频图像中车辆速度的方法。该方法取运动角点为特征量,通过选择灰度相关函数为特征匹配函数,实现了车辆在一定帧差内移动距离的测量。与传统方法相比,该方法不仅对设备的限制更小,而且运算速度更快。  相似文献   

4.
摄像机的运动使得复杂背景下动目标的检测复杂化。为了应对动态变化的背景,本文提出基于SIFT特征匹配和运动历史图的目标检测算法。首先用SIFT算法提取特征点,采用RANSAC方法求得仿射变换模型参数并实现图像的全局运动补偿,最后利用运动历史图的方法检测出动目标。SIFT特征点匹配的准确性和RANSAC方法去除异常点的有效性使得仿射变换模型参数计算准确,运动历史图则给出了动目标清晰的轮廓,并指明了动目标的运动方向。与Ninad Thakoor实验结果对比说明:该算法能够准确地检测出动目标,并且显示了动目标的运动方向。  相似文献   

5.
针对机载图像匹配辅助导航系统的实时性和精度高的特点,提出了基于部分Hausdorff距离的粗匹配与基于广义点理论的精匹配相结合的匹配方法;该方法利用多尺度边缘检测提取机载图像的边缘特征,将参考图像和实时图的边缘特征进行粗匹配和精匹配,并做了仿真实验;实验结果表明,该算法优于与灰度相关和SSDA算法对比,并验证算法的有效性.  相似文献   

6.
运动摄像机情况下的运动目标检测是视频监控中的难点和热点问题。为了能够有效地检测出运动目标,提出了一个基于SIFT(Scale Invariant Feature Transform)特征匹配和动态背景建模的背景差算法。首先利用SIFT算法提取特征点,采用RANSAC(Random Sample Consensus)方法求得仿射变换模型参数并实现图像的全局运动补偿,然后用背景差方法实现运动目标的检测,同时进行阴影和鬼影的去除。SIFT特征点匹配的准确性和RANSAC方法去除异常点的有效性使得仿射变换模型参数计算准确,动态更新背景模型的背景差则完整地检测出了前景目标。与Ninad Thakoor实验结果对比说明:该算法能够准确地检测出运动目标,并且保持了前景目标的完整性。  相似文献   

7.
该文给出了一种基于区域的车辆阴影检测方法。首先将运动前景像素检测出来,利用梯度特征分割运动前景的连通域获取投射阴影的方向,然后再结合区域内的角点及灰度相似性特征分割车辆和其阴影像素。实验结果表明该方法可以有效的检测阴影,并且能够满足实时性的要求。  相似文献   

8.
针对复杂图像的快速匹配问题,提出一种新的基于Shi-Tomasi角点检测与SIFT算法的高精度快速匹配方法。该方法充分利用图像的角点特征、灰度和位置信息,采用SIFT算法中的特征描述方法进行图像特征描述,并用Ransac算法对匹配点进行校正和消除错误匹配,提高计算速度和可靠性。实验结果验证了该算法对于存在较大色差、形变等图像可实现精确快速匹配,其精度和速度都优于传统的匹配算法。  相似文献   

9.
为了准确、快速的在动态场景中对运动车辆进行检测,提出一种基于特征点光流聚类的车辆检测方法;该方法取Harris角点为车辆特征量,通过特征点匹配来剔除一些没有运动的干扰角点,然后对剩余的特征点做光流提取并利用模糊U邻域(FUNN)聚类算法实现光流的聚类,从而剔除噪音、孤立点和不感兴趣样本实现前景和背景的分离,最后通过设定阈值判断前景目标是否是车辆;实验结果证明在复杂的动态场景中该算法对遮挡、光照变化、阴影处理等有很好的鲁棒性,相较于其他算法具有更高的车辆识别率。  相似文献   

10.
针对室内环境下视觉图像匹配速度慢、精度低等问题,提出一种基于奇异值分解结合Harris的快速匹配新方法.随机采集两组相邻的视觉图像作为研究对象,利用奇异值分解(SVD)对视觉图像进行压缩与重构.利用Harris角点检测算法对重构后的视觉图像进行特征角点的检测,然后结合归一化互相关(NCC)算法对视觉图像的特征角点进行一次粗匹配,最后采用随机抽样一致性(RANSAC)方法对粗匹配结果进行校正,实现特征点对的精匹配.实验表明:与传统的归一化互相关模板匹配算法相比,该算法不仅将视觉图像在室内环境下的误匹配率降低至2.35%,而且图像匹配的速率提升了3倍.  相似文献   

11.
一种改进的快速角点检测方法研究   总被引:3,自引:0,他引:3       下载免费PDF全文
传统的Harris角点检测算法检测率和可重复率高,但无法满足实时性要求,而Trajkovic等提出的角点检测器虽然计算量小,但是易对边缘产生伪响应,针对这些问题,提出一种新的基于Harris的快速角点检测算法。该算法使用多格算法,并使用四个基础方向上最小强度变化作为预处理结果,再使用自相关矩阵得到角点的响应函数。实验结果表明,新算法改进了Harris 算法和MIC算法,能够有效地抑制边缘响应及纹理角点,并且能够满足实时性要求。  相似文献   

12.
为了减少由于驾驶员疲劳驾驶引起的交通事故,提出驾驶员疲劳状态检测系统的方案。使用3×3中值滤波去除噪声和光照对图像的影响,通过对AdaBoost算法的强分类器训练算法改进、级联分类器优化实现人脸的快速检测,在检测到的人脸区域,通过积分灰度投影和从粗到细改进的模板匹配方法对人眼进行准确定位;通过PERCLOS、眼睛闭合时间、眼睛眨眼频率、嘴巴张开程度、头部运动的计算,进行驾驶员疲劳程度的综合判定。实验结果表明,该方法准确率高,兼具了良好的实时性和鲁棒性。  相似文献   

13.
针对现有的Harris角点提取算法在图像匹配法中,存在精度低、抗干扰和抗光照变化能力弱的缺陷,提出一种基于局部二进制模式(Local Binary Patterns,LBP)和图变换匹配算法(Graph Transformation Matching,GTM)相结合的鲁棒精确匹配算法。采用改进的Harris边缘特征检测提取特征点并选取图像块作为特征区域;采用改进的中心对称局部二进制模式(Center Symmetric Local Binary Patterns,CSLBP)对高维特征进行降维生成24维特征描述子,并依据欧氏距离实现图像粗匹配;采用图变化匹配法剔除误差匹配来改善匹配的精度和鲁棒性。测试结果表明,所建议算法是有效的,它不仅具有良好的抗尺度和旋转变化特性,而且具有较强的噪声抑制能力和抗光照变化能力。提出的鲁棒性算法不仅充分考虑到传统特征匹配算法优缺点,使检测与匹配结果更加准确,而且较Harris算法以及LBP算法稳定性和准确度有了明显的提高。  相似文献   

14.
道路车辆实时检测是计算机视觉领域中的研究热点问题。针对道路车辆检测算法存在检测精度低、速度慢等问题,提出了一种基于改进YOLOv3的道路车辆目标检测方法。通过改进Darknet53骨架网络构建了有30个卷积层的卷积神经网络,在减少网络成本的同时提高了检测速度;根据道路车辆宽高比固定的特点,利用k-means聚类方法选取锚点预测边界框,提高了检测速度与精度。实验结果表明,提出的方法在标准数据集KITTI上的平均精度达到了90.08%,比传统的YOLOv3提高了0.47%,检测速度达到了76.04 f/s,明显优于传统的YOLOv3算法。同时将该方法应用于车辆行驶动态数据集,能够实现针对视频中道路车辆的实时检测。  相似文献   

15.
针对海事监管中航拍图像拼接生成大视场图像的时效性较低以及配准准确性不高的问题,提出了一种快速高效的无人机(UAV)航拍图像拼接算法.根据海事监管辖区航拍图像特点缩小了角点搜索范围,通过设定自适应的梯度阂值和角点响应函数阈值筛选角点,通过局部最大角点响应函数值取舍准则实现了角点均匀化分布;采用基于相位相关的模板粗匹配方法和带有特征约束的RANSAC细匹配方法求出最优变换矩阵;利用人眼的视觉特性改进传统加权平均融合算法的加权因子使图像拼接过渡自然.实验结果表明:算法具有较好的自适应性,在拼接效率和准确率上较传统算法有了很大改善.  相似文献   

16.
针对道路交通场景目标检测问题,提出采用EdgeBoxes算法和深度学习融合的非机动车辆目标检测方法,利用深度学习目标分类算法Fast R-CNN,结合VOC格式的非机动车辆数据样本,把道路交通场景中的目标检测问题实化为自行车(bicycle)和电动车(evbike)的分类问题。利用EdgeBoxes算法提取样本的目标建议构建适量的感兴趣区域,和样本一起输入网络进行迭代训练,同时引入正则化思想和微调策略进行网络优化,降低网络复杂度并避免过拟合现象;网络训练后得到非机动车辆目标检测模型,对模型进行新样本测试并分析测试效果。在道路交通场景目标检测中,基于EdgeBoxes算法和优化Fast R-CNN融合的方法与传统方法相比,检测准确度稍有提高,运算量明显降低,检测速度加快近一倍。  相似文献   

17.
疲劳驾驶检测具有重要的警示作用,对检测方法的准确性和实时性均有较高要求。为此,提出了一种基于卷积神经网络的疲劳驾驶检测方法。首先,针对车内特定使用环境,对MTCNN算法进行了加速优化,在保证高准确率的同时检测速度提升高达27倍。其次,在实现人脸特征点精确定位基础上,提出了一种基于稀少特征点快速准确提取目标区域图像的ERFP(extracting images based on rare feature points)方法。再次,利用构建的眼、嘴数据集EMSD(eye and mouth state date sets)完成了眼、嘴部状态分类模型的训练。最终,利用训练得到的模型,结合相应的判定算法,实现了疲劳驾驶的检测判定。实验结果表明,该方法在实车环境下对瞌睡和哈欠行为的判定准确率均达到了96%以上,且每秒可完成约50帧图像的检测,具备良好的实时性。  相似文献   

18.
在复杂无约束自然场景下对车辆实时检测和相关信息的提取识别一直是计算机视觉领域内重要的研究内容之一。该领域问题的突破不但可以为汽车自动驾驶技术的实现和完善带来实际效果的提升,并且在停车场的自动停车调度算法和实时泊车监控系统的改进上有着重要的现实意义。针对当前实时车辆信息检测中存在的车辆检测区域不完整、精度不高以及无法对场景中较远车辆进行准确定位等相关问题,提出了一种Vehicle-YOLO的实时车辆检测分类模型。该模型在最新的YOLOv3算法基础上,通过更改图像输入参数,增强深度残差网络的特征提取能力,采用5个不同尺寸的特征图依次对潜在车辆的边界框提取等方式来提升车辆实时信息检测的精度和普适性,并通过KITTI、VOC等数据集进行性能验证和分析。实验结果表明,Vehicle-YOLO模型在KITTI数据集上达到了96%的均值平均精度,传输速度约为40 f/s,在精度提升的情况下仍能保持良好的实时检测速率。此外,Vehicle-YOLO检测模型在VOC等其余数据集上的实验结果也展现了不同程度的精度提升,故该模型在常见物体的定位检测中有较好的普适性,相较于传统的物体检测算法模型有更好的表现。  相似文献   

19.
在使用传统的图像识别算法对仪器表盘中的数字进行识别时,存在着流程繁琐,处理时间较长和检测效果不佳等问题。针对上述不足,提出了一种基于深度学习的轻量化仪器表盘检测算法,该算法以单发多尺度检测算法为基础,使用深度可分离卷积代替标准卷积设计特征提取网络,以提升特征表达能力和轻量化性能;同时提出了一种基于真实框分布构建锚框的流程,设计了能量化表达锚框匹配程度的指标——匹配率,促进构建匹配度更高且锚框数量更少的锚框方案。实验结果表明,所提算法具有较少的模型参数量和计算量,具有较高的检测精度,并且可在CPU环境下满足实时检测需求。  相似文献   

20.
针对Harris角点检测过程中存在定位粗糙、检测精度不高以及检测效率慢等原因,该文在Harris算法的基础上,结合Harris算子和Forstner算子提出一种改进的亚像素角点提取算法。该算法采用一种逐层检测策略,首先利用Harris算法进行角点粗略定位,首先对角点做一个初始选择,利用图像领域灰度相似度得到大部分角点的粗定位值,大大降低了算法的运算量,然后通过计算自相关矩阵的两个特征值,利用特征值和阈值比较筛选得到全部角点的粗定位值,避免了CRF(corner reference function角点响应函数)的计算,最后利用Forstner算子对粗定位后的角点进行亚像素级精确定位。实验证明,该算法不仅保证Harris算法的灵活性和Forstner算子的亚像素级精度,而且速度快,并且抗噪声性能较强。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号