首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对雾天场景中因图像模糊不清、目标难以分辨等原因导致错检、漏检的问题,提出了一种融合高分辨率网络的目标检测算法HR-Cascade RCNN。采用高分辨率网络HRNet作为Cascade RCNN的特征提取网络,通过不同分辨率的子网络并行连接,提取多尺度的特征信息,减少下采样过程中的信息损失,增强目标的语义信息表示;使用CIoU损失函数替换原有的Smooth L1损失函数,引入惩罚项度量真实框与检测框之间宽高比的相关性,优化网络的收敛效果,有助于提高检测框的定位精度;最后,采用SoftNMS改进候选框选择机制,降低车辆遮挡等情况下的漏检率,提高网络检测能力。在真实雾天数据集RTTS和合成雾天数据集Foggy Cityscapes上的实验结果表明,HR-Cascade RCNN与原Cascade RCNN相比,mAP分别提高了5.9%和3%。  相似文献   

2.
针对货车利用躲避摄像头等手段在城市道路中不按规定时间、规定线路行驶, 使得车辆不能被准确识别的问题, 提出基于改进Faster RCNN的城市道路货车检测方法. 该方法以Faster RCNN为基础模型, 通过对传入主干网络的车辆图片进行卷积和池化等操作来提取特征, 其中增加特征金字塔网络(FPN)提升对多尺度目标检测的精度; 同时将K-means聚类算法应用在数据集上以获取新的锚点框; 利用RPN (region proposal network)生成建议框; 并使用CIoU (complete-IoU)损失函数代替原算法的smoothL1损失函数以提升检测车辆的精确性. 实验结果显示, 改进后的Faster RCNN相比原算法对货车检测的平均精度(AP)提高7.2%, 召回率(recall)提高6.1%, 减少了漏检的可能, 在不同场景下具有良好的检测效果.  相似文献   

3.
由于植物根茎交点目标较小,识别率低,且在使用嵌入式设备进行植物移植与栽培的过程中资源及功耗受限。针对这类问题,提出了一种基于改进YOLOv4的目标检测解决方法,并设置于本场景。采集8?629张植物叶茎数据集图像,并对这些植物叶茎数据集进行标注,利用生成对抗网络(generative adversarial network,GAN)进行数据增强预处理。改进YOLOv4目标检测算法,选取4个不同尺度的锚框,以获得更多植物叶茎交点信息,同时对网络的结构和损失函数进行局部优化,使得网络在训练过程中更易于拟合目标。将主干网络更改为GhostNet网络,大幅度减少参数量与计算量,更利于在移动设备上的轻量化模型部署。实验结果表明,优化后的YOLOv4-GhostNet轻量化网络在保证检测精度的前提下,检测速度提高到79.3?frame/s,较YOLOv4提高了36.45%,网络帧率提高了51.07%,模型参数量减小了36.06%,能够有效检测叶茎交点目标。  相似文献   

4.
虽然基于深度学习的目标检测算法在道路场景中的目标检测方面已经取得了很好的效果,但是对于复杂道路场景中的密集目标,远处的小尺度目标检测精度低,容易出现漏检误检的问题,提出一种改进YOLOv7的复杂道路场景目标检测算法。增加小目标检测层,增加对小目标的特征学习能力;采用K-means++重聚类先验框,使得先验框更贴合目标,增加网络对目标的定位精度;采用WIoU(Wise-IoU)损失函数,增加网络对普通质量锚框的关注度,提高网络对目标的定位能力;在颈部和检测头引入协调坐标卷积(CoordConv),使网络能够更好地感受特征图中的位置信息;提出P-ELAN结构对骨干网络进行轻量化处理,降低算法参数量和运算量。实验结果表明,该改进算法在华为SODA10M数据集下的mAP达到64.8%,比原算法提高2.6个百分点,模型参数量和运算量分别降低12%和7%,达到检测精度和检测速度的平衡。  相似文献   

5.
纺织工业是我国的支柱型产业.在布匹生产过程中,布匹瑕疵是影响布匹质量的关键因素.目前纺织服装生产企业主要通过传统的人工肉眼检测布匹瑕疵,成本高、效率低,且漏检率与误检率高.本研究针对布匹数据集中类别数量不均匀的特点,对数据进行增强.在布匹瑕疵类别识别上,采用Faster RCNN模型,并针对布匹数据集中瑕疵目标小的特点,对Faster RCNN模型中的RPN网络进行改进.另外,本研究基于模型开发一款纺织布匹瑕疵识别系统,将通过模型识别出的布匹瑕疵类别结果通过可视化平台展现,同时准确标识疵点的位置.通过实验结果对比,本文的方法平均检测准确率为79.3%,相比Fast RCNN提高了5.75%.  相似文献   

6.
为解决夜间场景下视频监控目标检测在实际应用时准确率不高这一问题,提出改进的YOLOv5算法。首先,建立了真实夜间场景目标的数据集,该数据集有2000张图像,分为了机动车、非机动车和车牌三个类别,以8∶2的比例均匀随机分为训练集和测试集,将夜间目标的图像放入改进的YOLOv5模型中训练,最终达到在夜间检测目标的目的;改进的YOLOv5利用了K-means++聚类算法生成自适应锚框,提高对夜间目标样本的聚类效率。其次,将改进的CBAM注意力机制与特征提取网络进行融合以获取夜间目标的重要特征。最后,将Bottleneck替换成GSBottleneck模块,利用GSConv轻量化的优势减少网络模型的计算量与参数量。结果表明,通过原YOLOv5网络模型算法训练后得到的mAP值为86.69%,改进后的YOLOv5网络模型算法训练后得到的mAP值为91.98%,三种被检测类别:机动车、非机动车和车牌的检测准确精度与原版算法相比分别提升了2.00、6.66、7.19个百分点,改进的YOLOv5网络模型可以为夜间场景下车辆特征的检测提供较好的技术支持。  相似文献   

7.
近年来,图像检测方法已经被应用于很多领域.然而,这些方法都需要在目标任务上进行大量边框标注数据的重新训练.本文基于Faster RCNN方法,并对其进行改进,解决了在小数据且无需边框标注的情况下的商品图像检测问题.首先对Faster RCNN的边框回归层进行改进,提出了一种非类别特异性的边框回归层,仅使用公开数据集训练,无需在目标数据集上进行再训练,并将其用于数据预标定与商品检测.然后结合Grabcut与非类别特异性Faster RCNN提出了一种样本增强方法,用来生成包含多个商品的训练图像;并为Faster RCNN添加了重识别层,提高了检测精度.  相似文献   

8.
基于嵌入式平台对深度神经网络轻量化的需求,结合模块化、逐层处理思想,以主流检测识别深度神经网络Faster RCNN轻量化为目标,设计基于深度稀疏低秩分解的轻量化方法.针对Faster RCNN网络架构特点,首先采用深度可分离卷积和稀疏低秩理论对Faster RCNN网络的特征提取主干网络部分进行初始轻量化;其次采用稀疏低秩裁剪对主干网络进行“逐层通道裁剪,逐层重训练,逐层调优”轻量化,采用张量Tensor-Train分解理论,对区域建议网络进行轻量化处理,尽可能保证低性能损失;再次对识别与分类网络进行稀疏低秩分解和通道裁剪,增加模型压缩倍数,减少所需要和所消耗计算资源;最后,基于感兴趣区域定位感知的RPN网络输入特征知识蒸馏,提升检测识别性能.数值实验表明,所提出方法可以实现模型压缩100倍,检测识别率仅下降5%.  相似文献   

9.
针对道路场景下各目标尺度复杂导致的检测精度低问题,提出一种面向道路目标的多尺度Faster R-CNN算法.分析数据集标注的面积及长宽比分布以设置合适尺寸的锚框,提高锚框与目标的匹配度,模型对道路小目标的平均精准度提升了13%以上.在Faster R-CNN网络的特征提取部分加入特征金字塔结构,融合不同尺度特征图的信息...  相似文献   

10.
针对城市交通复杂场景下车辆检测存在准确率低的问题,提出改进SSD(单发多箱探测器)目标检测算法。首先基于轻量化的PeleeNet(一种基于密集卷积网络的轻量化网络变体)网络结构改进SSD算法中VGG16(视觉几何群网络)特征提取网络,在保证提取丰富特征的前提下,有效地减少模型参数,提高模型的实时性;其次设计了多尺度特征融合模块和底层特征增强模块,提高特征的表达性能;最后根据数据集中目标的大小调整默认框的长宽比例,并在后三个特征层的每个单元上增加默认框。实验结果表明,改进后的目标检测算法的准确率mAP(平均精度)为79.83%,与原始SSD相比提高了2.25%,并验证了改进SSD算法的有效性。  相似文献   

11.
为解决部分遥感建筑物因为自身形状的不规则,导致传统矩形识别框算法对该类检测目标分割效果差,难以精确定位的问题,提出一种改进的Mask RCNN检测算法。改进Mask RCNN的主干网络FPN网络,简化特征融合过程,有效避免语义信息丢失;改进Mask RCNN的RPN网络,针对识别框的重复计算,提升其运算效率,提高检出率;调节mask掩膜参数,提高分割效果。实验结果表明,改进Mask RCNN目标检测算法的检测精度和召回率达到了99.80%和97.88%,较原算法分别提高了1.54%和1.65%,有效优化了遥感领域不规则建筑物的检测问题。  相似文献   

12.
杨毅  桑庆兵 《计算机工程》2022,48(12):288-295
织物瑕疵检测是纺织行业保证产品质量的重要环节,针对织物瑕疵检测中存在小目标瑕疵检测困难、不同种类瑕疵长宽比差异大、对实时性要求高等问题,提出一种新的轻量化织物瑕疵检测算法。以YOLOv4网络为基础,使用轻量化网络MobileNetv2为主干网络,有效减少模型参数总量与运算量,以满足实时性需求。在MobileNetv2的逆残差结构中加入CoordAttention注意力模块,将空间精确位置信息嵌入到通道注意力中,增强网络聚焦小目标特征的能力。使用自适应空间特征融合(ASFF)网络改进路径聚合网络(PANet),使模型通过学习获得多尺度特征图的融合权重,从而充分利用浅层特征与深层特征,提高算法对小目标瑕疵的检测精度。采用K-means++算法确定先验框尺寸,并用Focal Loss函数修改模型损失函数,降低正、负样本不平衡对检测结果的影响,解决不同种类瑕疵长宽比差异大及类别不平衡的问题。实验结果表明,相较于YOLOv4算法,所提算法的平均精度均值提高了2.3个百分点,检测速度提升了12 frame/s,能较好地应用于织物瑕疵检测。  相似文献   

13.
城市道路上车辆行人的检测是自动驾驶汽车环境感知功能中的核心要素之一。针对现有城市道路车辆行人检测任务在使用目标检测算法检测精度低,检测位置不准确等问题,提出一种基于改进YOLOv5的城市道路车辆行人检测新算法—HCA-YOLOv5目标检测算法。通过K-means++聚类算法重新设计并更新锚框初始值并将其匹配到对应特征层,以提高模型对检测目标的检测性能;通过利用城市道路图像中不同高度上的类别分部特点并结合Transformer结构改进HANet的注意力结构,提高I模型I对输入图像的全局上下文特征提取能力,加强网络.对城市道路场景图片中不同类别的辨别.能力。实验结果表明,在自动驾驶数据集KTT上,所改进算法的均值平均精度(mAP)达到了9193%,相比原YOLOv5算法mAP提高了292个百分点,满足了城市道路场景下车辆形容的准确率要求。  相似文献   

14.
针对传统目标检测模型参数量巨大,制约算法部署与模型推理实时性的问题,提出一种基于改进RetinaNet检测模型的轻量化实时目标检测网络。使用MobileNet-V2代替RetinaNet模型中的ResNet骨干网络,降低整体模型的参数量;设计锚框引导采样机制,基于特征金字塔输出特征层生成感兴趣区域掩码,减少背景区域冗余锚框,降低后处理过程中的计算复杂度;引入GFocalLossV2损失函数统计预测边框分布特征,优化预测边框质量以及提升分类准确度。该模型在自制多类别工件数据集WP和Pascal VOC公开数据集上进行验证实验,改进模型的检测准确率分别达到99.5%、80.5%,检测速度分别达到39.8?FPS、38.3?FPS。实验结果表明,该轻量级目标检测模型能够实现实时检测,同时保证了检测精度。  相似文献   

15.
柳长源  王琪  毕晓君 《控制与决策》2021,36(11):2707-2712
车辆目标检测是智能交通系统中的重要环节,针对传统车辆目标检测方法效率低、小目标检测效果不好、漏检率高等问题,提出一种基于改进的YOLOv3网络车辆目标检测算法.为了提高车辆检测的效率,利用轻量化模型MobileNetv2代替原YOLOv3中的特征提取网络,使得网络计算量相比原算法有所降低.为了有效提高网络对小尺度车辆目标的检测能力,网络将由高到低不同尺度的特征层融合之后进行目标检测.为了得到更丰富的语义特征信息和提高网络预测能力,增加了特征增强模块.同时针对车辆目标检测的特定应用,利用K-means方法对锚框重新聚类以满足车辆目标检测的特定需求.结合以上改进获得车辆目标检测网络YOLOv3-M2,实验结果表明,与YOLOv3相比,改进方法平均检测准确率增加约9%, 时间减少约一半,能够同时提高检测效率和小目标检测能力.  相似文献   

16.
光伏组件在日常运行中不可避免会产生各种缺陷,热斑缺陷就是其中一种.现有的研究主要针对光伏组件在生产工艺流程中出现的缺陷,对日常运行中光伏组件产生的缺陷检测算法研究很少并且存在泛化能力差、准确率不足等问题.本文在原始Faster RCNN的基础上,结合图像预处理、迁移学习、改进特征提取网络模型以及改进锚框选区方案,得到热斑缺陷检测模型.实验证明,使用本文模型在自制的测试集上平均检测准确率可达97.34%,相比原始Faster RCNN提高了4.51%.  相似文献   

17.
李明  鹿朋  朱龙  朱美强  邹亮 《控制与决策》2023,38(10):2867-2874
针对当前抓取检测模型对密集遮挡物体的检测效果差以及人工数据标注工作量大的问题,提出基于RGB-D图像融合的目标检测与抓取检测分步骤进行的改进方案.新方案支持将单物体图像训练的抓取检测模型直接应用于密集遮挡的多物体图像场景中.首先,考虑到密集遮挡场景下抓取物具有多尺度的特点,提出子阶段路径聚合(SPA)的多尺度特征融合模块,用于丰富RGB-D特征级别融合的目标检测模型SPA-YOLO-Fusion的高维语义特征信息,以便于检测模型定位所有的抓取物;其次,使用基于RGB-D像素级别融合的GR-ConvNet抓取检测模型估计每个物体的抓取点,并提出背景填充的图像预处理算法来降低密集遮挡物体的相互影响;最后,使用机械臂对目标点进行抓取.在LineMOD数据集上对目标检测模型进行测试,实验结果表明SPA-YOLO-Fusion的mAP比YOLOv3-tiny与YOLOv4-tiny分别提高了10%与7%.从实际场景中采集图像制作YODO_Grasp抓取检测数据集并进行测试,结果表明增加背景填充预处理算法的GR-ConvNet的抓取检测精度比原模型提高了23%.  相似文献   

18.
新型冠状病毒肺炎疫情严重威胁人们的生命安全,对于聚集性人群密度及口罩佩戴情况的监管是控制病毒扩散的重要途经。公共场所具有人流密集且流动性大的特点,人工监测易增加感染风险,而现有基于深度学习的口罩检测算法存在功能及场景单一的问题,不能在多场景下实现多类别检测,同时精度也有待提升。提出Cascade-Attention R-CNN目标检测算法,实现对聚集区域、行人和口罩佩戴情况的自动检测。针对任务中目标尺度变化过大的问题,选取高精度两阶段Cascade R-CNN目标检测算法作为基础检测框架。通过设计多个级联的候选分类-回归网络并加入空间注意力机制,突出候选区域特征中的重要特征并抑制噪声特征,从而提高检测精度。在此基础上,构建聚集性传染风险智能监测模型,结合Cascade-Attention R-CNN算法的输出结果确定传染风险等级。实验结果表明,该模型对于不同场景和视角的多类别目标图片具有较高的准确性和鲁棒性,Cascade-Attention R-CNN算法平均精度均值达到89.4%,较原始Cascade RCNN算法提升2.6个百分点,较经典的两阶段目标检测算法Faster R-CNN和单阶段目标检测框架RetinaNet分别提升10.1和8.4个百分点。  相似文献   

19.
针对日常道路场景下的车辆目标检测问题,提出一种轻量化的YOLOv4交通信息实时检测方法。首先,制作了一个多场景、多时段的车辆目标数据集,并利用K-means++算法对数据集进行预处理;其次,提出轻量化YOLOv4检测模型,利用MobileNet?v3替换YOLOv4的主干网络,降低模型的参数量,并引入深度可分离卷积代替原网络中的标准卷积;最后,结合标签平滑和退火余弦算法,使用LeakyReLU激活函数代替MobileNet?v3浅层网络中原有的激活函数,从而优化模型的收敛效果。实验结果表明,轻量化YOLOv4的权值文件为56.4 MB,检测速率为85.6 FPS,检测精度为93.35%,表明所提方法可以为实际道路中的交通实时信息检测及其应用提供参考。  相似文献   

20.
极性电子元器件的类别、方向识别、定位在工业生产、焊接和检测等领域发挥着至关重要的作用. 本文首先将极性电子元器件的方向识别问题转化为一个分类问题, 然后, 采用Faster RCNN (Region convolutional neural network) 与YOLOv3方法实现了极性电子元器件的准确分类、方向识别和精准定位. 实验取得良好的效果, 两种算法的平均准确率(Mean average precision, mAP) 分别达到97.05 %、99.22 %. 此外, 我们通过数据集目标框的长宽分布, 利用K-means算法对Faster RCNN和YOLOv3的Anchor boxes进行了改进设计, 使准确率分别提高了1.16 %、0.1 %, 并提出针对大目标检测的网络结构: YOLOv3-BigObject, 在提高准确率的同时, 将检测单张图片的时间大幅缩减为原来检测时间的一半, 并最终用焊接有元器件的电路板进行检测, 得到了很好的实验结果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号