共查询到18条相似文献,搜索用时 171 毫秒
1.
目标数量多、尺度较小与高度重叠等问题导致目标检测精度低、难度大。为提升目标检测精度,尽可能避免漏检、误检情况,提出一种基于边界极限点特征的改进YOLOv3目标检测算法。首先,引入边界增强算子Border,从边界的极限点中自适应地提取边界特征来增强已有点特征,提高目标定位准确度;然后,增加目标检测尺度,细化特征图,增强特征图深、浅层语义信息的融合,提高目标检测精度;最后,基于目标检测中目标实例特性及改进网络模型,引入完全交并比(CIoU)函数对原YOLOv3损失函数进行改进,提高检测框收敛速度以及检测框召回率。实验结果表明,相较于原YOLOv3目标检测算法,改进后的YOLOv3目标检测算法的平均精度提高了3.9个百分点,且检测速度与原算法相近,能有效提高模型对目标的检测能力。 相似文献
2.
在目标检测中,框回归损失函数的设定直接影响预测框的定位准确性。预测框与目标框的交并比(IOU)被设定为优化预测框的损失函数,但是当两框无重叠面积时无法进行梯度回传。广义的交并比(GIOU)在IOU损失函数的基础上增加非重叠面积部分,将两部分优化项作为损失函数调整预测框位置,解决了无法梯度回传的情况。但当两框是包含关系时,GIOU的第二部分优化项消失,损失函数退化为IOU。为了解决以上问题,提出了一种重新定义的广义交并比损失函数(RGIOU),将非重叠部分面积定义为两框之并减去两框之交,再除以两框形成的最小闭包面积作为第一部分,除以最小闭包面积的平方作为第二部分,利用权重阈值进行加和形成新的损失函数。避免了两框是包含关系时存在的问题,提升了目标检测算法的精度。上述算法在PASCAL VOC 2007以及MS COCO 2014数据集上加以验证。 相似文献
3.
针对目前我国智能驾驶辅助系统识别道路交通标志检测速度慢、识别精度低等问题,提出一种基于YOLOv3的改进的道路交通标志检测算法。首先,将MobileNetv2作为基础特征提取网络引入YOLOv3以形成目标检测网络模块MN-YOLOv3,在MN-YOLOv3主干网络中引入两条Down-up连接进行特征融合,从而减少检测算法的模型参数,提高了检测模块的运行速度,增强了多尺度特征图之间的信息融合;然后,根据交通标志目标形状的特点,使用K-Means++算法产生先验框的初始聚类中心,并在边界框回归中引入距离交并比(DIOU)损失函数来将DIOU与非极大值抑制(NMS)结合;最后,将感兴趣区域(ROI)与上下文信息通过ROI Align统一尺寸后融合,从而增强目标特征表达。实验结果表明,所提算法性能更好,在长沙理工大学中国交通标志检测(CCTSDB)数据集上的平均准确率均值(mAP)可达96.20%。相较于Faster R-CNN、YOLOv3、Cascaded R-CNN检测算法,所提算法拥有具有更好的实时性和更高的检测精度,对各种环境变化具有更好的鲁棒性。 相似文献
4.
针对道路损伤检测面临的多尺度目标、复杂的目标结构、样本分布不均及难易样本对边界框回归的影响等问题, 本研究提出了一种基于改进YOLOv8的道路损伤检测算法. 该方法通过引入动态蛇形卷积 (dynamic snake convolution, DSConv) 替代原有C2f (faster implementation of CSP bottleneck with 2 convolutions) 模块中的部分Conv, 以自适应聚焦于细小而曲折的局部特征, 增强对几何结构的感知. 在每个检测头前引入高效多尺度注意力 (efficient multi-scale attention, EMA) 模块, 实现跨维度交互, 捕获像素级别关系, 提升对复杂全局特征的泛化能力. 同时, 增设小目标检测层以提高小目标检测精度. 最后, 提出Flex-PIoUv2策略, 通过线性区间映射和尺寸适应性惩罚因子, 有效缓解样本分布不均和锚框膨胀问题. 实验结果表明, 该改进模型在RDD2022数据集上的F1分数、平均精度均值 (mAP50、mAP50-95) 分别提高了1.5百分点、2.1百分点和1.2百分点. 此外, 在GRDDC2020和China road damage数据集上的验证结果显示, 该算法具有良好的泛化性. 相似文献
5.
6.
为有效解决车辆目标检测算法参数量大、计算成本高等问题,提出一种改进YOLOv3算法。利用深度可分离卷积和注意力机制重新设计主干特征提取网络结构,通过增大神经网络深度、拓宽特征提取层数实现更高层语义信息的提取,可获得更精细特征,减少模型参数量和计算量;引入CIOU回归优化损失函数,量化预测框与真实框中心点距离、重叠面积、尺度以及长宽比等评测指标,解决均方误差(MSE)损失优化方向不一致的问题,使目标框回归更加稳定。实验结果表明,该算法参数量为19.56M,比YOLOv3算法降低了近67%,同时平均精度均值(m AP)提高了3.68%,每秒帧数(FPS)提高了8帧,为车辆目标检测提供了容易部署在移动端的轻量级网络。 相似文献
7.
8.
物体检测是计算机视觉领域的一个关键内容,主要研究如何在静态图像或动态视频流中快速、准确地识别及定位出其中的目标。基于图像的古建筑检测可用于古建筑三维重建、智慧旅游等领域,具有重要的研究意义和实际应用价值。然而,受到古建筑样式、形状、花纹及纹理质地等影响,目前的物体检测器存在检测精度低和定位不准的问题。针对上述问题,基于YOLOv3网络模型,结合密度聚类和距离聚类思想,设计了一种基于RNN-DBSCAN+k-means的古建筑检测方法。该方法首先结合影响空间思想,采用RNN-DBSCAN算法对已标注的古建筑图像聚类,生成聚类结果集;其次从聚类结果集中选取最优的k个结果作为k-means的初始聚类中心;然后将这k个聚类中心作为聚类初始值,结合k-means算法得出聚类结果,并作为YOLOv3网络的先验框;最后以voc数据集(20类)和古建筑数据集为对象,验证了算法的有效性。针对古建筑数据集,算法检出率提高了0.33%;而在voc数据集单类检测中,算法检出率提高了0.04%~0.84%。 相似文献
9.
针对金属表面缺陷检测中目标尺寸小和特征不清晰导致漏检的问题,提出一种改进YOLOv3的金属缺陷检测算法.在YOLOv3网络结构的基础上,将第11层浅层特征与网络深层特征融合,生成一个新的尺度为104×104特征图层,提取更多小缺陷目标特征.加入DIoU边框回归损失,为边界框提供移动方向以及更准确的位置信息,加快模型收敛... 相似文献
10.
边界框回归分支是深度目标跟踪器的关键模块, 其性能直接影响跟踪器的精度. 评价精度的指标之一是交并比(Intersection over union, IoU). 基于IoU的损失函数取代了$ ell_n $-norm损失成为目前主流的边界框回归损失函数, 然而IoU损失函数存在2个固有缺陷: 1)当预测框与真值框不相交时IoU为常量 0, 无法梯度下降更新边界框的参数; 2)在IoU取得最优值时其梯度不存在, 边界框很难收敛到 IoU 最优处. 揭示了在回归过程中IoU最优的边界框各参数之间蕴含的定量关系, 指出在边界框中心处于特定位置时存在多种尺寸不同的边界框使IoU损失最优的情况, 这增加了边界框尺寸回归的不确定性. 从优化两个统计分布之间散度的视角看待边界框回归问题, 提出了光滑IoU (Smooth-IoU, SIoU)损失, 即构造了在全局上光滑(即连续可微)且极值唯一的损失函数, 该损失函数自然蕴含边界框各参数之间特定的最优关系, 其唯一取极值的边界框可使IoU达到最优. 光滑性确保了在全局上梯度存在使得边界框更容易回归到极值处, 而极值唯一确保了在全局上可梯度下降更新参数, 从而避开了IoU损失的固有缺陷. 提出的光滑损失可以很容易取代IoU损失集成到现有的深度目标跟踪器上训练边界框回归, 在 LaSOT、GOT-10k、TrackingNet、OTB2015和VOT2018测试基准上所取得的结果, 验证了光滑IoU损失的易用性和有效性. 相似文献
11.
近年来,深度学习在物体检测方面取得了非常好的效果和突飞猛进的发展,但在某些特殊场景下,如要求同时检测尺度相差极大的目标物体(相差大于100倍)时,现有的物体识别方法的性能急剧下降。针对同一场景下超大尺度差异物体识别与定位问题,对YOLOv3框架进行了改进,结合图像金字塔技术来提取图像的多尺度特征;并在训练过程中,针对不同尺度的目标提出采用动态交并比(IoU)的策略,此策略可以更好地解决样本不均衡的问题。实验结果表明,该模型对同一场景下超大超小物体的识别能力有了明显的提升。将之应用于机场环境,取得了较好的应用效果。 相似文献
12.
针对物体检测实时多目标回归算法中分别优化各四个位置参数,割裂了四个位置变量之间的关系,造成对物体的边框回归不够准确且训练不易收敛的问题,提出一种带检测评价函数(Intersection over Union,IoU)作为损失函数的实时多目标回归人脸检测算法。首先基于Redmond等提出实时多目标回归模型,采用该模型检测实时性的机制,然后融合了IoU函数作为位置参数的损失函数,将实时多目标回归模型中的四个独立位置参数整合成一个单元进行优化,避免了基础模型的缺陷。算法在人脸检测基准库FDDB上进行测试,实验结果表明:在人脸检测的有效性上优于主流的传统人脸检测算法,检测速度上领先于其他经典深度学习方法。提出的算法在检测人脸的有效性和检测速度两者之间取得了一个较好的平衡,为构建实用的人脸相关应用系统提供了参考价值。 相似文献
13.
在某些固定的工业应用场景中,对目标检测算法的漏检容忍性非常低。然而,提升召回率的同时,目标周围容易规律性地产生一些无重叠的虚景框。传统的非极大值抑制(NMS)策略主要作用是抑制同一目标的多个重复检测框,无法解决上述问题。为此设计了一种各向异性NMS方法来对目标周围不同方向采取不同的抑制策略,从而有效消除规律性的虚景框。固定的工业场景中的目标形状和规律的虚景框往往具有一定关联性。为了促进各向异性NMS在不同方向的精确执行,设计了一种比例交并比(IoU)损失函数用来引导模型拟合目标的形状。此外,针对规则目标使用了一种自动标注的数据集增广方法,在降低人工标注工作量的同时扩大了数据集规模。实验结果表明,所提方法在轧辊凹槽检测数据集上的效果显著,应用于YOLO系列算法时在不降低速度的同时提升了检测精度。目前该算法已成功应用于某冷轧厂轧辊自动抓取的生产线。 相似文献
14.
15.
针对现有煤矸检测模型存在的特征提取不充分、参数量大、检测精度低且实时性差等问题,提出了一种基于YOLOv5s−FSW模型的选煤厂煤矸检测方法。该模型在YOLOv5s的基础上进行改进,首先将主干网络的C3模块替换为FasterNet Block结构,通过降低模型的参数量和计算量提高检测速度;然后,在颈部网络引入无参型SimAM注意力机制,增强模型对复杂环境下重要目标的关注,进一步提高模型的特征提取能力;最后,在输出端用Wise−IoU替换CIoU边界框损失函数,使模型聚焦普通质量锚框,提高收敛速度和边框的检测精度。消融实验结果表明:与YOLOv5s模型相比,YOLOv5s−FSW模型的平均精度均值(mAP)提高了1.9%,模型权重减少了0.6 MiB,参数量减少了4.7%,检测速度提高了19.3%。对比实验结果表明:YOLOv5s−FSW模型的mAP达95.8%,较YOLOv5s−CBC,YOLOv5s−ASA,YOLOv5s−SDE模型分别提高了1.1%,1.5%和1.2%,较YOLOv5m,YOLOv6s模型分别提高了0.3%,0.6%;检测速度达36.4帧/s,较YOLOv5s−CBC,YOLOv5s−ASA模型分别提高了28.2%和20.5%,较YOLOv5m,YOLOv6s,YOLOv7模型分别提高了16.3%,15.2%,45.0%。热力图可视化实验结果表明:YOLOv5s−FSW模型对煤矸目标特征区域更加敏感且关注度更高。检测实验结果表明:在环境昏暗、图像模糊、目标相互遮挡的复杂场景下,YOLOv5s−FSW模型对煤矸目标检测的置信度得分高于YOLOv5s模型,且有效避免了误检和漏检现象的发生。 相似文献
16.
针对人员位置相对固定的场景中实时人数统计的管理需求,以普通高校实验室为例,设计并实现了一套基于更快速的区域卷积神经网络(Faster R-CNN)和交并比(IoU)优化的实验室人数统计与管理系统。首先,使用Faster R-CNN模型对实验室内人员头部进行检测;然后,根据模型检测的输出结果,利用IoU算法滤去重复检测的目标;最后,采用基于坐标定位的方法确定实验室内各个工作台是否有人,并将相对应的数据存入数据库。该系统主要功能有:①实验室实时视频监控及远程管理;②定时自动拍照检测采集数据,为实验室的量化管理提供数据支撑;③实验室人员变化数据查询与可视化展示。实验结果表明,所提基于Faster R-CNN和IoU优化的实验室人数统计与管理系统可用于办公场景中实时人数统计和远程管理。 相似文献
17.
针对区域推荐网络(RPN)在目标跟踪任务中出现的最大分类分数与最佳边框不匹配的问题,提出一种基于联合优化的强耦合孪生区域推荐跟踪算法(SCSiamRPN)。首先,采用Bounded IoU方法来优化正样本交并比(IoU)值的计算,通过分解公式、固定变量、替换差值和约束近似的操作来简化计算过程。然后,优化损失函数结构,通过在分类损失函数中添加以IoU值为纽带的耦合因子来联合分类任务和边框回归任务,以提升高IoU样本的损失值;通过在边框回归损失函数中添加以IoU为主变量的加权系数来提高目标中心样本的贡献,以提升边框定位精度。仿真结果显示:SCSiamRPN算法在OTB100数据集上的精度和成功率为0.86和0.64;同基于孪生区域推荐候选网络的高性能单目标跟踪(SiamRPN)算法相比,均有3%的提升。实验结果表明:SCSiamRPN算法解决了最大分类分数与最佳边框不匹配的问题,增强了分类和边框回归任务的耦合性,且在不损失跟踪速度的前提下实现了跟踪精度的较大幅度提升。 相似文献
18.
云是一种常见的天气现象,云状是天气预测的关键特征.目前,地基云图像中的云状观测主要依赖于气象观测员的目视观测,十分依赖观测员的经验,实时性和效率较低.针对这一问题,提出使用深度学习的方法进行地基云状检测识别.设计了一种新的目标检测边界框损失函数UIoU,将其应用于YOLOv3算法上.并且使用了K-means聚类算法重新... 相似文献