首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 242 毫秒
1.
为了解决传统目标跟踪算法在有遮挡后无法准确跟踪的问题,提出了将YOLO和Camshift算法相联合的目标跟踪算法.基于YOLO网络结构来构建目标检测的模型,在模型构建之前,采用图像增强的方法对视频帧进行预处理,在保留视频帧中足够图像信息的同时,提高图像质量,降低YOLO算法的时间复杂度.用YOLO算法确定出目标,完成对目标跟踪的初始化.根据目标的位置信息使用Camshift算法对后续的视频帧进行处理,并对每一帧的目标进行更新,从而可以保证不断调整跟踪窗口位置,适应目标的移动.实验结果表明,所提的方法能够有效地克服目标被遮挡后跟踪丢失的问题,具有很好的鲁棒性.  相似文献   

2.
为了实现非限制环境中水下机器人基于视频图像的水下鱼类目标快速检测,提出基于改进YOLO和迁移学习的水下鱼类目标实时检测算法.针对YOLO网络的不足,设计适合水下机器人嵌入式系统计算能力的精简YOLO网络(Underwater-YOLO).利用迁移学习方法训练Underwater-YOLO网络,克服海底鱼类已知样本集有限的限制.利用基于限制对比度自适应直方图均衡化的水下图像增强预处理算法,克服水下图像的降质问题.利用基于帧间图像结构相似度的选择性网络前向计算策略,提高视频帧检测速率.实验表明,文中算法能实现在非限制环境下海底鱼类目标的实时检测.相比YOLO,文中算法对海底鱼类小目标和重叠目标具有更好的检测性能.  相似文献   

3.
YOLO是目前计算机视觉目标检测领域比较重要的算法模型之一. 基于现有YOLOv5s模型提出了一种扩展的YOLOv5多级分类目标检测算法模型. 首先, 对LabelImg标注工具进行功能扩展, 使其满足多级分类标签文件构建; 其次在YOLOv5s算法基础上修改检测头输出格式, 在骨干网络前端引入DenseBlock、Res2Net网络模型核心设计思想, 获取丰富的多维度特征信息, 增强特征信息的重用性, 实现了YOLO多级分类目标检测任务. 在开源安全帽数据集上同时以安全帽颜色作为二级分类进行训练验证, 平均精度, 精确率和召回率分别达到了95.81%、94.90%和92.54%, 实验结果验证了YOLOv5多级分类目标检测任务的可行性, 并为目标检测及多级分类目标检测任务提供一种新的思路和方法.  相似文献   

4.
《软件》2019,(10):53-57
运用YOLO(You Only Look Once)目标检测算法解决行车过程中汽车智能驾驶系统中对于行人目标的检测问题。针对雾天交通环境下,YOLO算法受天气影响检测精度不高的问题,运用图像去雾技术对数据进行预处理,并训练出了针对雾天环境下适用于行人检测的网络模型。实验结果表明,使用单尺度的Retinex去雾算法训练得到的网络结构YOLO-SSR降低了漏检率和误检率,提高了定位准确性使得精度由77.05%提高到80.27%,并通过对视频进行取帧处理的方法解决单尺度Retinex算法针对视频检测速度慢的问题使其满足实际需求。  相似文献   

5.
针对车辆目标检测中存在遮挡目标导致检测精度低、小目标检测效果差等问题,提出一种基于YOLO v4改进的目标检测算法YOLO v4-ASC。通过在主干提取网络尾部加入卷积块注意力模块,提升网络模型的特征表达能力;改进损失函数提升网络模型的收敛速度,利用Adam+SGDM优化方法替代原始模型优化方法SGDM,进一步提升模型检测性能。此外,利用K-Means聚类算法优化先验框尺寸大小,并合并交通场景数据集中的car、truck、bus类别为vehicle,将本文问题简化为二分类问题。实验结果表明,本文提出的YOLO v4-ASC目标检测算法在保持原算法检测速度的基础上,AP达到了70.05%,F1-score达到了71%,与原YOLO v4算法相比,AP提升了9.92个百分点,F1-score提升了9个百分点。  相似文献   

6.
适用于嵌入式平台的E-YOLO人脸检测网络研究   总被引:1,自引:0,他引:1  
针对现有人脸检测深度学习算法计算量大,难以移植到嵌入式平台,无法满足移动设备实时性和便捷性需求的问题,提出一种基于YOLO(You Only Look Once)算法的适用于嵌入式平台的小型人脸检测网络E-YOLO(Enhance-YOLO)。借鉴YOLO算法的思想,将人脸检测问题转换为回归问题,将待检测的图像均分为S×S个单元格,每个单元格检测落在单元格内的目标。通过修改YOLO网络模型中的卷积神经网络结构,提高其检测的准确性,同时减少网络结构中卷积核的数目,降低模型的大小。实验结果表明,E-YOLO模型大小为43MB,视频的检测帧率为26FPS,在WIDERFACE和FDDB数据集上均有较高的准确率和检测速度,可以实现在嵌入式平台下的实时人脸检测。  相似文献   

7.
针对视频图像连续帧间的目标具有冗余性,采用手动标注方式耗时耗力的问题,提出一种融合检测和跟踪算法的视频目标半自动标注框架。利用手动标注的样本离线训练改进YOLO v3模型,并将该检测模型作为在线标注的检测器。在线标注时在初始帧手动确定目标位置和标签,在后续帧根据检测框与跟踪框的IOU(Intersection-Over-Union)值自动确定目标的位置,并利用跟踪器的响应输出判断目标消失,从而自动停止当前目标标注。采用一种基于目标显著性的关键帧提取算法选择关键帧。采用自建舰船目标数据集进行了改进YOLO v3检测性能对比实验,并采用舰船视频序列验证了提出的视频目标半自动标注方法的有效性。实验结果表明,该方法可以显著提高标注效率,能够快速生成标注数据,适用于海上舰船等场景的视频目标标注任务。  相似文献   

8.
为通过交通视频自动化检测驾驶员是否佩戴安全带,设计一种基于YOLO v3和Faster R-CNN的安全带单类别目标检测方法。基于YOLO v3网络训练车窗检测模型与车窗-驾驶员检测模型,得到驾驶员的精确位置;利用直方图均衡化、高斯滤波等方法对驾驶员图片进行图像增强操作,提高安全带区域的对比度;基于Faster R-CNN网络设计安全带单类别目标检测模型,将传统的分类问题转变为单类别目标检测问题。实验结果表明,模型检测准确率可达96.0%。相对于其它方法,适应性更强,鲁棒性更高,准确率相应提高。  相似文献   

9.
针对通用目标检测算法在检测小目标时存在效果不佳及漏检率较高等问题,提出了一种基于改进YOLO V3的道路小目标检测算法。对YOLO V3算法网络模型中的聚类算法进行优化,使用DBSCAN+K-Means聚类算法对训练数据集聚类分析,选取更合适的Anchor Box,以提高检测的平均精度和速度;同时引入Focal Loss损失函数代替原网络模型中的损失函数形成改进的YOLO V3算法。进而与其他目标检测算法在KITTI数据集上对行人目标进行对比检测,发现改进的YOLO V3算法能够有效降低小目标漏检率,大大提高检测的平均精度和检测速度。实验结果表明,在KITTI数据集上,改进的YOLO V3算法检测目标的平均精度达到92.43%,与未改进的YOLO V3算法相比提高了2.36%,且检测速度达到44.52?帧/s。  相似文献   

10.
复杂城市道路环境下运动车辆目标检测是现代智能交通系统的重要组成部分.依据多帧视频图像序列的时空连续变化关系,通过构建多帧视频图像序列时空关系模型(Time-space model——TSM),进一步完善车底阴影特征检测算法,并与AdaBoost算法相结合,实现运动车辆目标检测的候选区域筛选与验证处理,以降低车辆检测的误检率,提高准确率.在白天复杂城市道路环境下,实验结果显示基于TSM的车辆检测,检测准确率为92.1%,误检率为4.3%,图像分辨率为1920*1088,单帧图像平均处理时间76 ms.基于TSM的车辆检测显著改进了AdaBoost和车底阴影特征检测算法存在的误检率高,效率低问题,满足城市道路环境下车辆检测准确率和鲁棒性的要求.  相似文献   

11.
目的 为了进一步提高智能监控场景下行为识别的准确率和时间效率,提出了一种基于YOLO(you only look once:unified,real-time object detection)并结合LSTM(long short-term memory)和CNN(convolutional neural network)的人体行为识别算法LC-YOLO(LSTM and CNN based on YOLO)。方法 利用YOLO目标检测的实时性,首先对监控视频中的特定行为进行即时检测,获取目标大小、位置等信息后进行深度特征提取;然后,去除图像中无关区域的噪声数据;最后,结合LSTM建模处理时间序列,对监控视频中的行为动作序列做出最终的行为判别。结果 在公开行为识别数据集KTH和MSR中的实验表明,各行为平均识别率达到了96.6%,平均识别速度达到215 ms,本文方法在智能监控的行为识别上具有较好效果。结论 提出了一种行为识别算法,实验结果表明算法有效提高了行为识别的实时性和准确率,在实时性要求较高和场景复杂的智能监控中有较好的适应性和广泛的应用前景。  相似文献   

12.
陈宏彩  程煜  张常有 《软件学报》2017,28(S1):107-114
我国机动车保有量急速增长,产生一系列严重的安全与交通问题.与此同时,视频图像文件呈爆炸式增长,为公安的监控、刑侦以及案件的侦破带来了很大的困扰.车辆目标检测与识别越来越受到人们的关注,研究一种高效而准确的车辆目标检测方法意义重大.在YOLO目标检测框架的基础上,设计了一种卷积神经网络的车辆检测及其车型粗粒度识别方法.网络结构采用多层感知机卷积层,增加特征映射的非线性处理能力;移除原来模型中的全连接层,利用锚点框预测目标的边界框,在降低模型复杂度的同时提高了目标检测的召回率.实验结果表明,与主流的目标检测方法相比,该车辆目标检测方法在处理速度和准确度上都有提高,在迭代20 000次的情况下,平均准确率为94.7%.  相似文献   

13.
Slow-moving or stopped trains at highway-railroad grade crossings, especially in the populated metropolitan areas, not only cause significant traffic delays to commuters, but also prevent first responders from timely responding to emergencies. In this study, the researchers introduce an automated video analysis, detection and tracking system to evaluate the traffic conditions, analyze blocked vehicle behaviors at grade crossings, and predict the decongestion time under a simplified scenario. A novel YOLOv3-SPP+ model has been developed to improve the detection performance with dividing the image from finer to coarser levels and enhance local features. The SORT module has been integrated to the model for a simple yet efficient manner to track vehicles at the railroad grade crossing. Two field datasets at the Columbia, SC, with train blockage video records have been tested. The model training performance has been evaluated by mAP @0.5, F1 score, and total loss. Based on the training results, our model outperforms other YOLO series models. The field tracking performance has been assessed by the ratio between prediction and ground truth. The mean value of accuracy of our test cases is 92.37%, indicating a reliable tracking performance. In addition, the present results indicate the traffic during and after the crossing blockage does follow a pattern, and there is a general trend of the behavior of the vehicles waiting or taking an alternative route. A good linear correlation between the decongestion time and the number of blocked vehicles has been observed at the monitored grade crossing at the City of Columbia, SC.  相似文献   

14.
熊咏平  丁胜  邓春华  方国康  龚锐 《计算机应用》2018,38(12):3631-3637
为了解决复杂海情环境下的不同种类和大小的舰船检测问题,提出一种实时的深度学习的目标检测算法。首先,提出了一种清晰图片和模糊图片(雨、雾等图片)判别的方法;然后,在YOLO v2的深度学习框架的基础上提出一种多尺度目标检测算法;最后,针对遥感图像舰船目标的特点,提出了一种改进的非极大值抑制和显著性分割算法,对最终的检测结果进一步优化。在复杂海情和气象条件下的舰船目标公开比赛的数据集上,实验结果表明,相比原始的YOLO v2,该方法的准确率提升了16%。  相似文献   

15.
针对YOLOv3在野生动物视频目标检测领域中,存在的前后视频帧同区域关系难以描述的缺点,提出了Context-aware YOLO模型。该模型使用互信息熵对相邻帧的图像相似度进行量化,根据量化结果拟合出帧融合的相关因子,并使用相关因子对视频前后帧的特征图进行线性迭代融合;引入直方图均衡计算相似度的方法,判断“镜头切换”的情况,以确定特征图融合的临界条件。实验结果表明,Context-aware YOLO模型相对于YOLOv3模型F1值提升了2.4%,平均准确率(mAP)提升了4.71%。  相似文献   

16.
目的 在智能网联汽车系统开发中,复杂环境下的车道线检测是关键环节之一。目前的车道线检测算法大都基于颜色、灰度和边缘等视觉特征信息,检测准确度受环境影响较大。而车道线的长度、宽度及方向等特征的规律性较强,具有序列化和结构关联的特点,不易受到环境影响。为此,采用视觉信息与空间分布关系相结合的方案,来提高复杂环境下的车道线检测能力。方法 首先针对鸟瞰图中车道线在横向和纵向上分布密度不同的特点,将目标检测算法YOLO v3(you only look once v3)的网格密度由S×S改进为S×2S,得到的YOLO v3(S×2S)更适于小尺寸、大宽高比物体的检测;然后利用车道线序列化和结构相互关联的特点,在双向循环门限单元(bidirectional gated recurrent unit,BGRU)的基础上,提出基于车道线分布关系的车道线检测模型(BGRU-Lane,BGRU-L)。最后利用基于置信度的D-S(Dempster-Shafer)算法融合YOLO v3(S×2S)和BGRU-L的检测结果,提高复杂场景下的车道线检测能力。结果 采用融合了视觉信息和空间分布关系的车道线检测模型,在KITTI(Karlsruhe Institute of Technology and Toyoko Technological Institute)交通数据集上的平均精度均值达到了90.28%,在欧洲卡车模拟2常规场景(Euro Truck Simulator 2 convention,ETS2_conv)和欧洲卡车模拟2复杂场景(Euro Truck Simulator 2 complex,ETS2_complex)下的平均精度均值分别为92.49%和91.73%。结论 通过增大YOLO v3纵向的网格密度,可显著提高模型检测小尺寸、大宽高比物体的准确度;序列化和结构关联是车道线的重要属性,基于空间分布关系的BGRU-L模型的准确度受环境影响较小。两种模型的检测结果在经过D-S融合后,在复杂场景下具有较高的准确度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号