首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   9篇
  国内免费   4篇
电工技术   2篇
综合类   1篇
自动化技术   13篇
  2024年   1篇
  2023年   4篇
  2022年   6篇
  2021年   5篇
排序方式: 共有16条查询结果,搜索用时 15 毫秒
1.
交通标志识别是自动驾驶技术中的关键一部分.针对交通标志在道路场景中目标较小且识别精度较低的问题,提出一种改进的YOLOv5算法.首先在YOLOv5模型中引入全局注意力机制(GAM),提高网络捕获不同尺度交通标志特征的能力;其次将YOLOv5算法中使用的GIoU损失函数更换为更具回归特性的CIoU损失函数来优化模型,提高对交通标志的识别精度.最后在Tsinghua-Tencent 100K数据集上进行训练,实验结果表明,改进后的YOLOv5算法对交通标志识别的平均精度均值为93.00%,相比于原算法提升了5.72%,具有更好的识别性能.  相似文献   
2.
针对普通商品识别算法在智能售货柜嵌入式系统平台上检测速度慢、识别率低的问题,提出了一种在YOLOv3基础上的改进型商品识别算法DS_YOLOv3.利用k-means++聚类算法得到适应于售货柜中售卖饮料图像数据的先验框;采用深度可分离卷积替换标准卷积,并加入倒置残差模块重构YOLOv3算法,减少了计算复杂度使其能在嵌入式平台实时检测;同时引入CIoU作为边界框回归损失函数,提高目标图像定位精度,实现了对传统YOLOv3算法的改进.在计算机工作站和Jeston Xavier NX嵌入式平台上进行了典型场景下的商品检测实验.实验结果表明,DS_YOLOv3算法mAP达到了96.73%,在Jeston Xavier NX平台上实际检测的速率为20.34fps,满足了基于嵌入式系统平台的智能售货柜对实时性和商品识别精度的要求.  相似文献   
3.
针对输电线路无人机巡检图像中绝缘子自爆缺陷目标小而难以精准检测的问题,提出一种基于Faster R-CNN和改进的YOLO v3级联双模型的绝缘子自爆缺陷检测算法。首先,利用无人机巡检图像构建绝缘子串缺陷数据集,并对训练图像样本进行翻转预处理,增加样本数量,提高模型泛化能力,避免过拟合;然后,利用Faster R-CNN检测图像中的绝缘子串,再将检测到的绝缘子串图像送入改进的YOLO v3网络进行自爆缺陷的定位。改进的YOLO v3网络是在YOLO v3基础上借鉴FPN的思想,增加特征提取层并进行特征融合,充分利用深层特征和浅层特征;同时采用CIoU Loss函数作为损失函数,以解决边界框宽高比尺度信息。实验结果表明,本文算法在所构建的绝缘子缺陷数据集上的检测准确率达到91.2%,相比Faster R-CNN或YOLO v3等单模型检测算法提升了3.31个百分点以上,能有效实现无人机巡检中绝缘子自爆缺陷的检测,为输电线路智能化巡检故障诊断提供方法支持。  相似文献   
4.
针对货车利用躲避摄像头等手段在城市道路中不按规定时间、规定线路行驶,使得车辆不能被准确识别的问题,提出基于改进Faster RCNN的城市道路货车检测方法.该方法以Faster RCNN为基础模型,通过对传入主干网络的车辆图片进行卷积和池化等操作来提取特征,其中增加特征金字塔网络(FPN)提升对多尺度目标检测的精度;同时将K-means聚类算法应用在数据集上以获取新的锚点框;利用RPN (region proposal network)生成建议框;并使用CIoU (complete-IoU)损失函数代替原算法的smoothL1损失函数以提升检测车辆的精确性.实验结果显示,改进后的Faster RCNN相比原算法对货车检测的平均精度(AP)提高7.2%,召回率(recall)提高6.1%,减少了漏检的可能,在不同场景下具有良好的检测效果.  相似文献   
5.
目的 手势识别是人机交互领域的热点问题。针对传统手势识别方法在复杂背景下识别率低,以及现有基于深度学习的手势识别方法检测时间长等问题,提出了一种基于改进TinyYOLOv3算法的手势识别方法。方法 对TinyYOLOv3主干网络重新进行设计,增加网络层数,从而确保网络提取到更丰富的语义信息。使用深度可分离卷积代替传统卷积,并对不同网络层的特征进行融合,在保证识别准确率的同时,减小网络模型的大小。采用CIoU(complete intersection over union)损失对原始的边界框坐标预测损失进行改进,将通道注意力模块融合到特征提取网络中,提高了定位精度和识别准确率。使用数据增强方法避免训练过拟合,并通过超参数优化和先验框聚类等方法加快网络收敛速度。结果 改进后的网络识别准确率达到99.1%,网络模型大小为27.6 MB,相比原网络(TinyYOLOv3)准确率提升了8.5%,网络模型降低了5.6 MB,相比于YOLO(you only look once)v3和SSD(single shot multibox detector)300算法,准确率略有降低,但网络模型分别减小到原来的1/8和1/3左右,相比于YOLO-lite和MobileNet-SSD等轻量级网络,准确率分别提升61.12%和3.11%。同时在自制的复杂背景下的手势数据集对改进后的网络模型进行验证,准确率达到97.3%,充分证明了本文算法的可行性。结论 本文提出的改进Tiny-YOLOv3手势识别方法,对于复杂背景下的手势具有较高的识别准确率,同时在检测速度和模型大小方面都优于其他算法,可以较好地满足在嵌入式设备中的使用要求。  相似文献   
6.
针对基于深度学习的手势识别模型参数量大、训练速度缓慢且对设备要求高,增加了成本的问题,提出了一种基于轻量级卷积神经网络的手势识别检测算法。首先利用Ghost模块设计轻量级主干特征提取网络,减少网络的参数量和计算量;通过引入加权双向特征金字塔网络改进特征融合网络,提升网络检测精度;最后使用CIoU损失函数作为边界框回归损失函数并加入Mosaic数据增强技术,加快模型收敛速度提升网络的鲁棒性。实验结果表明,改进后的模型大小仅为17.9M,较原YOLOv3模型大小减小了92.4%,平均精确度提高了0.6%。因此新的检测方法在减少模型参数量的同时,还可保证模型的检测精度和效率,为手势识别检测提供理论参考。  相似文献   
7.
无人机在情报、侦察和监视领域,目标自动检测可为侦察等任务提供准确的目标位置及类别,为地面指挥人员提供详尽的目标信息。针对无人机图像背景复杂、分辨率高、目标尺度差异大等特点,提出一种改进YOLOv5s目标检测算法。将压缩-激励模块引入到YOLOv5s算法中,提高网络的特征提取能力;引入双锥台特征融合(bifrustum feature fusion,BFF)结构,提高算法对较小目标的检测检测精度;将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高定位精度。实验结果表明,改进后的YOLOv5s取得了86.3%的平均均值精度(mAP),比原算法YOLOv5s提高了16.8个百分点,在复杂背景下仍能显著提升无人机图像目标检测性能。  相似文献   
8.
改进YOLO轻量化网络的口罩检测算法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对目前YOLO轻量网络在口罩佩戴检测任务中出现的特征提取不足和特征利用率不高的问题,提出了一种基于改进YOLOv4-tiny的轻量化网络算法.增加Max Module结构以获取更多目标的主要特征,提高检测准确率.提出自下而上的多尺度融合,结合低层信息丰富网络的特征层次,提高特征利用率.使用CIoU作为边框回归损失函数...  相似文献   
9.
针对火灾检测中小目标检测率低、复杂场景下检测精度低和检测不及时等问题, 提出了一种改进YOLOv3的火灾检测算法. 首先, 通过改进的K-means聚类算法重新获取更符合火焰和烟雾尺寸的anchor; 其次在Darknet-53后添加空间金字塔池化, 提升了网络的感受野进而增强了网络对小尺度目标的检测能力; 然后通过CIoU改进损失函数, 在计算坐标误差时考虑中心和宽高坐标两者的相关性, 加快了损失函数的收敛; 最后使用mosaic数据增强丰富了待检测物体的背景. 在自制的数据集上训练并测试, 实验结果表明: 改进后的算法比YOLOv3火焰的AP从94%提升至98%, 烟雾的AP从82%提升至94%, 平均检测速度从31 fps提升至43 fps, 相比Faster R-CNN、SDD等算法也有更高的mAP和更快的检测速度. 因此, 改进后的算法能够更有效地进行火灾预警.  相似文献   
10.
针对水下目标检测任务中图像模糊、背景复杂以及目标小而导致误检和漏检问题,提出一种改进YOLOv3-SPP的水下目标检测算法。利用UWGAN网络对水下原始图像进行恢复,采用Mixup方法增强数据,减少错误标签记忆;以YOLOv3-SPP网络结构为基础,增加网络预测尺度,提高小目标检测性能;引入CIoU边框回归损失,提高定位精度;利用K-Means++聚类算法,筛选最佳Anchor box。将改进YOLOv3-SPP算法在处理后的URPC数据集上进行实验,平均检测精度由79.58%提升到88.71%,速度为28.9 FPS。结果表明,改进算法综合检测能力优于其他算法。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号