首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 109 毫秒
1.
自然场景乌金体藏文文本信息作为高度浓缩的高层语义信息,不仅具有较大的研究和实用价值,而且可以用于协助藏文场景文本理解领域的研究.目前针对自然场景下乌金体藏文的检测与识别的相关研究甚少,本文在人工收集的自然场景乌金体藏文图像数据集的基础上,对比了目前常见的文字检测算法在自然场景乌金体藏文上的检测性能以及在不同特征提取网络下基于序列的文字识别算法CRNN在自然场景乌金体藏文图像数据集上的识别准确率并分析了在314张真实自然场景下乌金体藏文识别出错的特殊例子.实验表明本文在文字检测阶段采用的可微分的二值化网络DBNet在测试集上具有更好的检测性能,该方法在测试集上的准确率、召回率、F1值分别达到了0.89、0.59、0.71;在文字识别阶段采用MobileNetV3 Large作为特征提取网络时,CRNN算法在测试集上的识别准确率最高,达到了0.4365.  相似文献   

2.
动态虚拟智能交通场景的研究与实现   总被引:2,自引:0,他引:2       下载免费PDF全文
在微观交通仿真系统中,三维虚拟交通场景主要研究静态物体的构建,对交通环境中各种动态因素研究较少。该文探讨虚拟交通场景中虚拟汽车的视觉感知行为和决策行为,给出视觉感知图和模糊神经网络决策图,在此基础上利用EONSDK技术构建动态虚拟智能交通场景平台,提高了虚拟交通环境的真实性,而且可以定制不同交通环境和模拟不同交通事故场景。  相似文献   

3.
针对冰箱能效标识人工检测的不足,基于机器视觉技术,设计一种冰箱能效标识智能检测与识别系统.主要介绍系统整体设计,以及机械装置、视觉系统和控制系统设计..  相似文献   

4.
提出一种新的基于核距离的稀疏表示识别方法,方法分为两个阶段:首先计算测试样本与训练样本之间的核距离,并挑选出M近邻;然后将测试样本用挑选的M近邻进行线性表示,根据每类训练样本的贡献进行分类。在德国交通标识数据库上的对比实验表明,该方法的识别率优于传统的PCA、LDA和OMP方法,识别率达到94.2%。  相似文献   

5.
在分块核函数的基础上提出了基于多个图像特征进行组合决策的识别方法。该算法先对交通标识图像提取两个不同的特征,即HOG特征和基于子模式组合的分块核函数特征,然后针对不同特征构造相应的分类器,最后对这几个分类器的输出采用投票机制进行决策融合。在德国交通标识数据库上的实验结果表明,该方法相比单特征识别具有更高的识别准确率。  相似文献   

6.
许多自然场景图像中都包含丰富的文本,它们对于场景理解有着重要的作用。随着移动互联网技术的飞速发展,许多新的应用场景都需要利用这些文本信息,例如招牌识别和自动驾驶等。因此,自然场景文本的分析与处理也越来越成为计算机视觉领域的研究热点之一,该任务主要包括文本检测与识别。传统的文本检测和识别方法依赖于人工设计的特征和规则,且模型设计复杂、效率低、泛化性能差。随着深度学习的发展,自然场景文本检测、自然场景文本识别以及端到端的自然场景文本检测与识别都取得了突破性的进展,其性能和效率都得到了显著提高。本文介绍了该领域相关的研究背景,对基于深度学习的自然场景文本检测、识别以及端到端自然场景文本检测与识别的方法进行整理分类、归纳和总结,阐述了各类方法的基本思想和优缺点。并针对隶属于不同类别下的方法,进一步论述和分析这些主要模型的算法流程、适用场景和技术发展路线。此外,列举说明了部分主流公开数据集,对比了各个模型方法在代表性数据集上的性能情况。最后总结了目前不同场景数据下的自然场景文本检测、识别及端到端自然场景文本检测与识别算法的局限性以及未来的挑战和发展趋势。  相似文献   

7.
交通标识分类是交通标识识别系统的基础环节,而交通标识形状识别是交通标识分类的核心部分.对交通标识进行了研究,将交通标识分为禁令标识、警告标识和指示标识3大类分别进行分析,提出了一种利用边缘走势统计特征反映目标形状特征的新算法,并将其与BP神经网络相结合用于交通标识形状的识别.首先利用颜色信息实现交通标识区域分割,随后记...  相似文献   

8.
动态场景下基于精确背景补偿的运动目标检测   总被引:1,自引:0,他引:1  
针对动态场景下因背景补偿效果欠佳而不能准确检测运动目标的问题,提出一种基于精确背景补偿的运动目标检测算法。算法采用加入对称约束的SURF特征点匹配算法,以获得稳健的匹配点对。同时利用自适应外点滤除法去除目标点对全局运动估计的影响,显著地提高了背景补偿的精度。最后用帧差法准确地检测出运动目标。实验结果表明,该算法具有很好的鲁棒性,能够在背景复杂且摄像机运动的环境下准确地提取出运动目标。  相似文献   

9.
提出了一种动态物体与视点位置的检测技术,实现了虚拟场景中动态物体的有序运动。建立视点与动态物体之间的运动轨迹向量和动态物体的交互方式,根据两轨迹向量计算两者的位置关系赋予动态物体不同的交互方法来实现虚拟场景中动态物体的有序运动。文章中给出了此方法的具体算法。  相似文献   

10.
针对存在运动目标的动态环境,提出一种基于动态目标滤除思想的显著特征提取方法,据此实现基于局部图像特征的场景识别。首先简要介绍基于局部显著图像特征的场景识别方法,然后提出了带动态目标滤除思想的显著特征提取框架,并详细讨论了运动目标检测及提取的实现。实验结果和分析表明,该方法能够有效地过滤环境中的运动目标,提高场景识别的精度。  相似文献   

11.
针对指示类交通标识的特点,进行标志牌检测算法的研究.首先利用快速HSV颜色查找的方法进行颜色分割,对颜色分割后的二值图进行必要的形态学预处理,接着利用圆形度和拐角检测与几何特征结合的方法进行形状识别.针对某些圆形标志边缘分割不完整的情形,提出一种根据距离直方图判断是否为圆形标志的方法.实验结果表明,算法对实际道路环境下...  相似文献   

12.
车道线检测是智能交通监控及自动驾驶的基础步骤,为提高其鲁棒性和实时性,针对复杂城市交通场景中自动驾驶需要检测车道线的需求,提出了一种实时车道线检测算法,首先运用改进灰度化变换突显车道线的特征,并通过改进的Gabor滤波算法增强车道线的边缘信息;最后采用多约束霍夫变换筛选得到平行车道线从而实现实时车道线检测。实验表明,该方法在三种不同真实的交通道路场景下,提高了车道线检测精度及处理速度,可应用于实时车道线检测系统。  相似文献   

13.
针对现有基于大数据和深度学习的目标检测框架对于高分辨率复杂大场景中低分辨率小目标识别效果较差、多目标检测的精度和实时性难以平衡的问题,改进了基于深度学习的目标检测框架 SSD(single shot multibox detector),提出一种改进的多目标检测框架DRZ-SSD,将其专用于复杂大交通场景多目标检测。检测以从粗到细的策略进行,分别训练一个低分辨率粗略检测器和一个高分辨率精细检测器,对高分辨率图像进行下采样获得低分辨率版本,设计了一种基于增强学习的动态区域放大网络框架(DRZN),动态放大低分辨率弱小目标区域至高分辨率再使用精细检测器进行检测识别,剩余图像区域使用粗略检测器进行检测,对弱小目标的检测与识别精度以及运算效率的提高效果明显;采用模糊阈值法调整自适应阈值策略在避免适应数据集的同时提高模型的决策能力,显著降低了检测漏警率和虚警率。实验表明,改进后的DRZ-SSD在应对弱小目标、多目标、杂乱背景、遮挡等检测难度较大的情况时,均能获得较好的效果。通过在指定数据集上的测试,相比于其他基于深度学习的目标检测框架,各类目标识别的平均准确率提高了4%~15%,平均准确率均值提高了约9%~16%,多目标检测率提高了13%~34%,检测识别速率达到38 fps,实现了算法精度与运行速率的平衡。  相似文献   

14.
针对动态物体会导致位姿估计误差过大的问题,提出一种适用于动态场景下的RGB-D SLAM算法。首先,将目标检测的结果根据物体是否具有自主移动能力划分为动态物体与潜在动态物体,并使用大津法在对应的深度图中完成检测框内区域的前、背景分割;然后,结合检测框的位置坐标与深度信息确定潜在动态物体与动态物体在三维空间内是否关联,初步筛选出具有一定运动概率的潜在动态物体;最后,通过运动一致性检测算法来最终确定是否将潜在动态物体作为动态物体处理。实验部分选用公开的TUM数据集,结果表明,该算法在保持实时性的同时具有较高的定位精度和鲁棒性。  相似文献   

15.
鉴于目前绝大部分人行横道红绿灯没有配合声音提示,利用带摄像头的智能手机,通过人行横道红绿灯的自动识别技术将大大提高盲人过马路的安全系数。提出一个融合级联Adaboost与颜色过滤的人行横道红绿灯自动识别算法。该方法首先利用AdaBoost算法对红绿灯位置进行检测;然后在HSI色彩模型的色调子空间进行颜色分析的基础上进行红绿灯的过滤与分类。用采集的418幅实际复杂场景下的图像数据进行实验,结果表明该方法能达到较好的检测效果。  相似文献   

16.
根据交通信号灯灯板颜色和形状定位图像中的灯板位置. 将灯板区域的彩色图像转换到YCbCr 空间, 分割灯板区域中的红、黄、绿三色区域, 利用交通信号灯的形态特性定位交通灯位置. 用Gabor 小波和2 维独立分量分析提取感兴趣区域的特征, 送入最近邻分类器分类信号灯的类型. 用代表性的观测序列建立隐马尔科夫模型, 并结合识别和跟踪结果估计信号灯状态. 实验结果表明, 该算法能可靠、准确地识别出信号灯, 并有效地估计出信号灯的状态.  相似文献   

17.
Moving shadow detection and removal for traffic sequences   总被引:3,自引:0,他引:3  
Segmentation of moving objects in a video sequence is a basic task for application of computer vision. However, shadows extracted along with the objects can result in large errors in object localization and recognition. In this paper, we propose a method of moving shadow detection based on edge information, which can effectively detect the cast shadow of a moving vehicle in a traffic scene. Having confirmed shadows existing in a figure, we execute the shadow removal algorithm proposed in this paper to segment the shadow from the foreground. The shadow eliminating algorithm removes the boundary of the cast shadow and preserves object edges firstly; secondly, it reconstructs coarse object shapes based on the edge information of objects; and finally, it extracts the cast shadow by subtracting the moving object from the change detection mask and performs further processing. The proposed method has been further tested on images taken under different shadow orientations, vehicle colors and vehicle sizes, and the results have revealed that shadows can be successfully eliminated and thus good video segmentation can be obtained.  相似文献   

18.
19.
提出一种算法框架实现对交通场景中运动车辆的分割。首先,提出一种基于颜色空间的浮动气球模型,用以解决监控场景的自适应背景建模问题,该方法解决了基于参数模型的背景建模方法无法检测驻留物体的问题,并可有效适应监控场景中的光照变化以实现自适应更新;其次,针对通过背景建模和背景差分得到的运动前景区域包含运动车辆阴影问题,提出一种新的阴影检测算法,该算法采用多特征融合的方法实现了对运动车辆的分割。实验结果分析表明,与其他方法相比,该算法框架在背景建模和阴影检测方法具有较好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号