首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为通过交通视频自动化检测驾驶员是否佩戴安全带,设计一种基于YOLO v3和Faster R-CNN的安全带单类别目标检测方法。基于YOLO v3网络训练车窗检测模型与车窗-驾驶员检测模型,得到驾驶员的精确位置;利用直方图均衡化、高斯滤波等方法对驾驶员图片进行图像增强操作,提高安全带区域的对比度;基于Faster R-CNN网络设计安全带单类别目标检测模型,将传统的分类问题转变为单类别目标检测问题。实验结果表明,模型检测准确率可达96.0%。相对于其它方法,适应性更强,鲁棒性更高,准确率相应提高。  相似文献   

2.
针对现有的驾驶员安全带检测算法存在的定位精度差、实时性低的问题,提出一种基于YOLO和极限学习机相结合的驾驶员安全带检测模型。利用YOLO网络快速定位主驾驶区域,提取主驾驶区域特征,传递给极限学习机,训练成一个安全带检测分类器。实验结果表明,与传统的安全带检测算法相比,该方法在驾驶员安全带检测中准确率更高,检测速度大大提升。  相似文献   

3.
一种改进的适用复杂场景的运动目标检测算法   总被引:2,自引:0,他引:2  
针对传统运动目标检测算法中存在的“拖影”、光变干扰、阴影等问题,提出了一种改进的更具鲁棒性的检测算法.基于背景边缘检测差并通过两次结合帧间差分法以及颜色偏差用以消除噪声和减低运动目标边缘断裂现象,从而获取运动目标的完整轮廓,同时采用双向模板填充算法进行运动目标的分割,最后通过数学形态学滤波和连通域分析来进一步去除噪声和填补空洞,获得完整理想的运动目标区域.实验结果证明,相对于传统的帧差与背景差分检测算法,能够有效地克服阴影和光扰所产生的噪声问题,可以在复杂背景下准确地检测分割出运动目标,并满足实时性要求.  相似文献   

4.
针对yolov5对复杂背景下的无人机航拍图像目标的检测容易出现误检漏检等情况,本文提出了一种融合递归门控卷积和混合注意力的目标检测算法。首先对特征提取网络引入递归门控卷积C3模块,以获取丰富的语义和空间信息,提高算法的精准度;其次融合全维动态卷积以及混合注意力模块增强网络对航拍目标的辨识能力,排除杂质信息的干扰;最后改进损失函数来提高模型的收敛速度。在visdrone数据集上的实验表明,该方法的平均精度为46.6%,比基准模型yolov5s提升了13.6%,对目标的漏检和误检情况明显较少。相比于yolov5算法,该算法抗干扰能力得到提升,具有很好的鲁棒性,检测速度到112帧/s,符合航拍目标检测的实时要求。  相似文献   

5.
目前铁路上普遍采用人工监督方式来检测工人是否佩戴安全帽,但监督范围过大,在实践中不能及时跟踪和管理所有工作人员。因此针对该问题,采用深度学习目标检测的方法,通过改进YOLOv5s目标检测算法来实现铁路工人是否佩戴安全帽和穿戴背心。具体来说,以YOLOv5s算法为基础,采用GhostNet模块替换原始网络中的卷积Conv,提高模型的实时检测速度;采用更高效简单的多尺度特征融合BiFPN,使特征融合方式更加简单高效,以提高检测速度和降低模型复杂度;把原始的CIOU损失函数替换为SIOU损失函数,以提高模型精度。研究结果表明,改进的YOLOv5s-GBS算法的准确率和识别效率可达到95.7%和每秒45帧,并且模型大小减少了一半,准确率提高了4.5%。  相似文献   

6.
针对目前面向注意力机制语义分割算法不能兼顾分割精度与实时性,以及难以满足在现实场景中应用的问题,提出一种基于条带池化注意力的实时语义分割算法.首先采用轻量级骨干网络提取特征信息,结合不同网络层语义差异构建特征融合模块获得不同尺度的上下文信息以提升分割精度;然后利用基于注意力的条带注意力模块(SAM)提高远距离信息被弱化的注意力,并在SAM中加入水平方向的条带池化以降低编码全局上下文的运算量.实验结果表明,所提算法能够得到较高分割精度且满足实时性要求;在Cityscapes测试集上平均交并比为70.6%,分割速度达到了92帧/s;在CamVid测试集上平均交并比为66.4%,分割速度达到了196帧/s.  相似文献   

7.
提出一种视频字幕的检测与定位算法.利用视频字幕在时间上的冗余特性,以镜头为基本处理单元,采用监视-跟踪模型和扩展QSDD(PQSDD)度量来定位字幕的起始帧和终止帧,利用起始帧和终止帧确定起始字幕转换帧对和终止字幕转换帧对;对各帧对的差值图像利用边缘特性分别进行字幕定位,并提出一种基于背景复杂度的自适应阈值选取算法实现对边缘图像的二值化;最后时两幅差值图像定位出的字幕区域做逻辑与运算和连通区域分析得到最终的字幕区域.实验结果表明本文算法具有较高的检测速度和定位精度.  相似文献   

8.
对基于深度学习的高精度图像语义分割模型参数量大、分割速度慢的问题,提出一种基于双路径特征融合编解码结构的语义分割模型.首先,该模型编码器通过对语义路径和空间路径同时进行编码,其能够融合不同的特征信息,弥补了空间信息和语义信息难以两全的弊端,对特征图进行高效的卷积操作;其次,该模型解码器通过融合高层语义信息和低层空间信息,有效地弥补了编码时下采样操作丢失的特征信息.在Cityscapes和Camvid数据集上的实验结果表明,整体模型的参数量仅为3.91×10^(6),在2个数据集上分别取得了67.7%和65.8%的均交并比,分割速度分别为111帧/s和86帧/s.对比其他同类模型,所提模型拥有更少的参数量和更高的精度,其分割速度远远超过实时语义分割的最低要求24帧/s.  相似文献   

9.
针对无人机航拍视角下车道线形状复杂、细节特征易丢失、车道线前后景像素占比不均衡等问题,提出一种基于模型集成的高分辨率融合车道线检测算法.首先使用高分辨率融合结构和双线性插值算法改进全卷积神经网络的卷积模块和上采样模块;然后依据模型集成思想,使用改进后的模型结构作为车道线前后景语义分割模型及车道线多类别语义分割模型,用于分步骤解决车道线检测问题,并使用阈值化交叉熵损失函数和Lovasz损失函数组成联合损失函数对2种模型进行训练;最后使用局部色选区域生长算法为检测结果添补细节.实验结果表明,所提算法在自定义无人机航拍视角的15类车道线语义分割数据集中达到0.5484的平均交并比和0.9931的像素精度,在NVIDIA Tesla V100平台对分辨率为512×512的图像的检测速度达到23.08帧/s.  相似文献   

10.
基于双阈值运动区域分割的AdaBoost行人检测算法   总被引:1,自引:0,他引:1  
结合单目摄像机静止拍摄的视频序列使用背景差法或AdaBoost算法检测行人时分别存在易受噪声干扰或检测速度慢的问题,提出一种双阈值运动区域分割的AdaBoost快速行人检测算法。首先建立背景帧,利用前景帧与背景帧的差分图像拟合噪声曲线,提取噪声与亮暗运动目标的阈值,消除噪声,分割出运动区域;然后通过AdaBoost学习算法选择少量有效的Haar-like弱矩形特征构造强分类器;最后在运动区域利用强分类器检测是否包含行人。实验结果表明,该方法迅速缩小了检测范围,加快了检测速度,降低了误检率。  相似文献   

11.
钱增磊  梁久祯 《计算机应用》2014,34(10):2976-2981
目前在H.264/AVC压缩域分割领域中常用方法造成局部运动矢量(MV)缺失,而通过全局运动补偿来还原运动矢量导致其时间复杂度提高。为解决此问题,提出一种基于边界聚类的快速凸壳分割(BS-CHSTF)算法。该方法主要利用码流中的运动矢量场信息进行分割,首先,对MV利用时空域滤波(STF)对运动矢量进行预处理,采用八方向自适应搜索算法进行边界搜索确定运动连通域;然后根据每个连通域边界求解凸壳并对其进行连通域填充,之后利用运动矢量与距离信息设定聚类规则,对多个连通域进行聚类;最后,对其进行优化掩膜达到分割运动对象的效果。实验结果表明,与混合高斯模型(GMM)分割算法和压缩域蚁群算法(ACA)比较,在分割准确率上平均提高了近3%,甚至在运动矢量场严重缺失的情况下,提高了近20%;而在分割速度上平均提高了近25%。该方法着重于求得运动对象的完整性与快速性,在运动对象不完整的情况下,能够获得较好分割精准度。  相似文献   

12.
针对现阶段很多实时语义分割算法分割精度低,尤其对边界像素分割模糊的问题,提出一种基于跨级注意力机制和多标签分类的高精度实时语义分割算法.首先基于DeepLabv3进行优化,使其达到实时运算速度.然后在此网络基础上增加跨级注意力模块,使深层特征为浅层特征提供像素级注意力,以抑制浅层特征中不准确语义信息的输出;并在训练阶段引入多标签分类损失函数辅助监督训练.在Cityscapes数据集和CamVid数据集上的实验结果表明,该算法的分割精度分别为68.1%和74.1%,分割速度分别为42帧/s和89帧/s,在实时性与准确性之间达到较好的平衡,能够优化边缘分割,在复杂场景分割中具有较好的鲁棒性.  相似文献   

13.
为了解决基于机器视觉的自动报靶系统快速、准确定位靶纸区域的问题,通过对靶纸图像的颜色和形状特性分析,提出一种基于改进Fast Minimum Barrier Distance显著性和多特征匹配的靶纸区域快速检测算法。该算法在原始Fast Minimum Barrier Distance显著区域提取算法的基础上,引入局部区域对比度先验和形状先验作为显著性区域提取的补充准则。同时,为了判断提取到的区域是否包含靶纸,再引入多特征匹配算法。首先,分别对图像边界连通先验、局部区域对比度先验和形状先验进行量化,形成距离图、对比度图和形状图,再结合三者分割出显著性目标区域,然后提取分割出的各目标区域的多种特征,并将其进行特征融合,最后利用1-范式将得到的目标特征与模板特征进行匹配,把匹配结果小于阈值的目标视为靶纸。在400张包含靶纸图像数据集上的实验结果显示了该算法的有效性。同时,在华为海思平台上,该算法处理速度能达到30帧/秒,足以证明该算法的实时性。  相似文献   

14.
提出一种结合区域检测和语义分割的即时定位和建图(SLAM)技术,通过引入高精度图像描述子SIFT来实现前端视觉里程计(VO)过程中帧间像素匹配的精度。为了降低引入操作带来的计算复杂度,设计一个实时区域检测算法,在相邻帧间检测大致相似的ROI(Region of Interest)关键区域,使得SIFT描述子的提取和匹配只在ROI区域内完成,其余区域仍旧采用精度略低、效率更高的ORB算子。同时,为了提高后端BA(Bundle Adjustment)的精度,减少累积误差,结合语义图,在原有的基本投影误差函数上添加一个语义误差。该语义图采用实时语义分割算法完成,同时只针对ROI区域进行分割。通过与原SLAM方案对比实验,表明本文提出的方法,在提高一定精度的同时,仍能满足SLAM实时定位和建图的要求。最后,在电力作业场景下验证了该方案的效果。  相似文献   

15.
胡丹  黄辉 《工业控制计算机》2024,(1):126-128+131
条形码广泛用于商品的流通,为提高条形码质检的准确性和效率,提出了基于图像区域特征和骨架特征的条形码印刷缺陷检测算法。相机采集条形码图像后,利用模板匹配定位条形码,按照仿射变换参数进行图像矫正;然后,通过阈值分割、连通域、闭运算等处理,得到条码ROI待检区域;最后,利用区域最小外接矩形长度特征、区域矩形度特征、骨架特征先后检测条符,识别缺陷位置并存入新区域。生产现场测试表明,该方案的检测成功率为99.2%,平均耗时51.982 ms;实验仿真数据还验证所提算法适用不同角度的图像。与其他方法相比,该算法在识别精度、运行速度和鲁棒性方面均具有优势,能获得较好的检测效果。  相似文献   

16.
《计算机工程》2019,(12):257-262
现有视频行为检测方法在生成候选区域时采用滑窗操作,处理长视频速度较慢。针对该问题,通过对静态行为主体进行定位,提出一种快速检测方法。将长视频分割为若干个视频单元,在每个单元的第1帧中运用Fast R-CNN算法进行行为主体检测,对检测到行为主体的单元划定时间区域生成行为发生候选区域,以减少行为检测网络的输入数据。在此基础上,采用3D卷积神经网络判别候选区域类别,对行为类区域进行边界回归,得到准确的行为时间轴定位。实验结果表明,该方法检测速度较TURN方法提升2倍以上,其mAP指标只降低0.7%。  相似文献   

17.
基于视觉的路口车辆排队长度检测方法   总被引:1,自引:0,他引:1  
现有基于视觉的交叉路口车辆排队长度测量方法,不能给出实际排队长度,且摄像机标定复杂。为此,提出基于连通区域的车辆排队长度检测算法及以停车线为参照物的摄像机快速标定方法。在停车线后设定停车检测区域,并利用相邻帧差法判断是否存在车辆停车。在排队检测区域内用最大类间方差法自动设定阈值并分割图像,以检测车辆存在。利用连通区域各种参数确定车辆所在的连通域并检测出队尾。运用针孔成像模型论证以停车线为参照物的摄像机标定方法。实验结果证明,该方法可以准确检测出队首和队尾像素,计算出实际长度,可满足实时性要求。  相似文献   

18.
为了提高经典目标检测算法对自然场景文本定位的准确性,以及克服传统字符检测模型由于笔画间存在非连通性引起的汉字错误分割问题,提出了一种直接高效的自然场景汉字逼近定位方法。采用经典的EAST算法对场景图像中的文字进行检测。对初检的文字框进行调整使其更紧凑和更完整地包含文字,主要由提取各连通笔画成分、汉字分割和文字形状逼近三部分组成。矫正文字区域和识别文字内容。实验结果表明,提出的算法在保持平均帧率为3.1 帧/s的同时,对ICDAR2015、ICDAR2017-MLT和MSRA-TD500三个多方向数据集上文本定位任务中的F-score分别达到83.5%、72.8%和81.1%;消融实验验证了算法中各模块的有效性。在ICDAR2015数据集上的检测和识别综合评估任务中的性能也验证了该方法相比一些最新方法取得了更好的性能。  相似文献   

19.
光流估计下的移动端实时人脸检测   总被引:1,自引:0,他引:1  
魏震宇  文畅  谢凯  贺建飚 《计算机应用》2018,38(4):1146-1150
为了提高移动设备人脸检测准确率,提出一种应用于移动设备的实时人脸检测算法。通过改进Viola-Jones方法进行人脸区域快速分割,在不损失速度的情况下提高分割精度;同时应用了光流估计方法将卷积神经网络子网络在离散关键帧上的特征提取结果传播至非关键帧,提高神经网络实际检测运行效率。实验使用YouTube视频人脸数据库、自建20人各1 min正位人脸视频数据库和实际检测项目在不同分辨率下进行,实验结果表明运行速度在2.35帧/秒~22.25帧/秒,达到了一般人脸检测水平;人脸检测在10%误检率下召回率由Viola-Jones的65.93%提高到82.5%~90.8%,接近卷积神经网络检测精度,满足了移动设备实时人脸检测的速度和精度要求。  相似文献   

20.
一种基于梯度方向信息的运动目标检测算法   总被引:2,自引:0,他引:2       下载免费PDF全文
运动目标检测是智能视觉监控系统的基本内容。在对现有算法分析的基础上提出了一种基于梯度方向信息的运动目标检测算法。首先利用方向信息提取视频图像序列中每一帧的边缘梯度图,然后通过改进传统帧差算法,采用uint8数据格式处理含有时间关系的两帧图像以此确定运动目标粗略边界,经运动目标连通域识别,最后结合梯度方向信息准确提取运动目标的完整轮廓。实验结果表明,该算法克服了传统帧差算法不能准确定位目标的缺点,在室内外复杂背景下均能准确地提取完整的目标轮廓。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号