首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
郭斐  靳伍银  王猛 《机械设计》2019,36(9):113-116
在传统的Faster R-CNN网络结构中减少原有的卷积层数,同时加入Inception结构层,提出一种基于Faster RCNN的零件识别的改进算法。该算法在保证不增加网络参数和计算量的前提下,增加深度和网络结构复杂度,进一步有效地提取图像的特征。结果表明:通过自制机械零件图像数据集,将传统Faster R-CNN与改进后的Faster R-CNN算法均成功应用于机械零件图像识别。与传统Faster R-CNN相比,基于改进后的Faster R-CNN深度学习算法识别机械零件的识别精度和准确度均更高。  相似文献   

2.
在利用铁谱技术对齿轮箱磨损状态进行评估时,存在磨粒特征提取困难且磨粒识别的数量有限的问题,基于铁谱磨粒图像特性,提出基于Faster R-CNN算法的铁谱磨粒识别。该算法采用ResNet-34网络完成铁谱磨粒特征自动提取,并采用RPN网络实现对图像中多个磨粒的识别。通过实验对Batch_Size和学习率超参数进行优化,使用超参数优化后的Faster R-CNN算法进行实验。结果表明:该方法克服了磨粒交叉引起的识别难点,能识别一副图像中的多个磨粒,能统计各类磨粒数量,且准确率较高;在磨粒背景颜色不同、存在噪声干扰等情况下,该方法仍能够准确判断磨粒类型,具有较好的稳定性。  相似文献   

3.
在铝型材实际生产过程中,由于碰撞、加工温度、压力等原因,可能导致铝型材产生擦花、脏点、喷流等数种表面缺陷,缺陷目标较小,长宽大,传统目标检测算法的准确率较低,严重影响铝型材的美观和质量.在Faster R-CNN网络的基础上,引入了多阶段模型训练方法使部分无缺陷样本生成对抗样本,用ResNeXt105网络代替原始VGG16网络提取图像特征,设计了Cascade Faster R-CNN的网络结构,采用FPN提取多尺度特征图并进行特征图融合.实验结果表明,在2722张图像测试集上,Faster R-CNN模型准确率为62.7%,网络模型测试准确率达到81.4%,提高了18.7%.故相比于其他网络模型,改进后的Cascade Faster R-CNN的模型具有更强的特征提取能力和泛化能力,为类似小目标检测提高了技术参考.  相似文献   

4.
在传统的油封缺陷检测中,存在油封表面质量缺陷尺寸小、人工检测效率低、漏检错检率高、成本高等问题,为此,以油封缺陷为研究对象,提出了一种基于深度学习Faster R-CNN框架的多尺度特征融合的改进算法。首先,构建了油封缺陷检测系统,采集了油封缺陷图像,经扩增及标注等预处理后制作了数据集;然后,研究了油封缺陷尺寸较小导致的识别精度低问题,设计了Faster R-CNN网络基于FPN+ResNet50框架进行特征多尺度融合改进的方法;最后,采用了预训练参数送入改进的Faster R-CNN网络模型,并对油封缺陷数据集进行深度训练的方法,进行了油封缺陷的检测实验。研究结果表明:该模型的检测精确度和速度综合性能优于固有的Faster R-CNN网络模型,划痕、毛刺和凹缺的检测精确度分别达到0.96、0.95和0.97,召回率分别达到0.89、0.88和0.91,mAP可达85.5%,高于改进前模型1.4%,识别速度可达16 fps,高于油封生产速度;该检测方法可以满足油封缺陷的检测要求。  相似文献   

5.
传统的图像处理方法对生产过程中各种金属板材表面缺陷检测效率低,难以满足工业生产的需求。为了提高金属板材表面缺陷检测的精度,文章提出了一种基于优化Faster R-CNN算法的金属板材表面缺陷检测方法,以残差网络ResNet50作为主干特征提取网络。首先,融合特征金字塔网络和可变形卷积网络以提高对小目标和不规则性缺陷的检测能力。然后,采用RoI Align和K-means++聚类算法对候选框进行优化,实现缺陷的精准定位。最后,将提出的模型运用在NEU-DET数据集中进行多次实验。实验结果表明,优化后的Faster R-CNN算法在此数据集上的mAP为78.7%,与原始网络相比提高了7.7%,并且其检测性能优于SSD、YOLOv5s和YOLOv7三类目标检测算法。  相似文献   

6.
为了解决复杂图像背景下无人机航拍图像小目标检测问题,提出了一种基于Faster R-CNN的多尺度小目标检测方法。以高压塔上的鸟巢为检测对象,首先通过改进卷积神经网络ResNet101对目标进行特征提取,然后采用多尺度滑动窗口方式在不同分辨率卷积特征图上获取目标初始建议区域,最后在选取的分辨率较高的卷积特征图上增加一个反卷积操作进一步对特征图的分辨率进行提升,并作为建议窗口的特征映射层传入目标检测子网络中。通过对无人机实际航拍图像中鸟巢的检测结果表明,所提出的算法可以实现对航拍图像中小目标的精确检测。  相似文献   

7.
于彦良  李静力  王斌 《机械设计与制造》2021,365(7):176-178,183
红外图像特征对具有发热特征的电力特设缺陷具有较好的表达能力,随着电力企业设备红外图像的积累,传统检测方法遇到效率和准确率瓶颈,为此,提出了基于改进Faster RCNN的缺陷识别算法,算法通过模型中RPN网络卷积核的优化,减少RPN网络的计算量,通过多分辨率特征融合提高网络对缺陷特征语义信息和细节定位信息的应用,最后通过自适应训练数据抽样提高正负训练样本抽取的有效性,从而提高算法缺陷识别准确率.实测数据实验表明,改进模型的目标函数可以在较少的迭代次数下实现稳定实收,在准确率、召回率和运行时间等评价指标上优于传统Faster RCNN模型、SIFT算子模型等已有模型,从而验证了算法的有效性和对不同背景干扰的有效性.  相似文献   

8.
为了解决复杂图像背景下无人机航拍图像小目标检测问题,提出了一种基于Faster R-CNN的多尺度小目标检测方法。以高压塔上的鸟巢为检测对象,首先通过改进卷积神经网络ResNet101对目标进行特征提取,然后采用多尺度滑动窗口方式在不同分辨率卷积特征图上获取目标初始建议区域,最后在选取的分辨率较高的卷积特征图上增加一个反卷积操作进一步对特征图的分辨率进行提升,并作为建议窗口的特征映射层传入目标检测子网络中。通过对无人机实际航拍图像中鸟巢的检测结果表明,所提出的算法可以实现对航拍图像中小目标的精确检测。  相似文献   

9.
为检测生产线中产品的表面缺陷,提出一种基于卷积神经网络快速区域标定(Faster R-CNN)的缺陷检测方法,用于识别缺陷类型并标记出缺陷位置。预处理阶段提出区域规划方法粗略裁剪出缺陷主体,以避免产生大量冗余窗口,从而提升检测速度和精度。所提算法结合数据扩充方法增加了图像数量,通过划分K折交叉验证数据集改善了算法的鲁棒性;同时,将稀疏滤波思想融入卷积神经网络,提取双重深度特征作为Faster R-CNN的输入,提升了Faster R-CNN位置检测和识别的精度。通过油辣椒灌装生产线的封盖面典型缺陷检测验证了所提方法的可行性。  相似文献   

10.
针对工件缺陷检测中的表面细微缺陷难以检测问题,提出一种基于超分辨率特征融合的数据扩增模型。该模型由数据层(Data)、超分辨率特征提取与样本修复层(SR-Re)和数据扩增层(M-A)3层结构组成。Data层完成样本划分,并以缺陷特征像元占比小于0.333%的样本作为细微缺陷数据输出;SR-Re层采用双路结构并行处理输入数据,分别完成对输入图像数据的超分辨率特征提取与样本修复;M-A层通过对超分辨率特征和无缺陷样本进行泊松融合实现样本扩增。该模型重点解决了由于图像特征不明显导致工件表面细微缺陷难以识别、检测模型难以构建与工业检测困难的问题,通过扩增细微缺陷样本提升了缺陷检测模型的准确率。最后通过对5类铝型材样本进行实验,验证了该模型的有效性与可行性。  相似文献   

11.
针对传统检测算法对工业铝材表面缺陷识别率不高、对于小缺陷定位不准确等问题,提出改进的Faster RCNN深度学习网络对于铝材表面10种缺陷进行检测.首先,对数据进行增强后,在主干网络加入特征金字塔网络(FPN)结构以加强对小缺陷的特征提取能力,随后用感兴趣区域校准(ROI Align)算法来代替粗糙的感兴趣区域池化(...  相似文献   

12.
为了提高螺纹孔目标检测的准确率,结合双相机视觉系统与Hough变换圆检测算法,提出了一种基于Faster R-CNN的螺纹孔目标检测方法。首先建立了由双相机组成的图像获取系统,通过安置在高处的工业相机采集工件整体图像,利用Hough变换圆检测算法初步筛选出工件上的疑似螺纹孔的位置,并驱动第二个工业相机逐个在近处采集经Hough变换检测出的疑似螺纹孔的局部精确图像。然后,在自建的螺纹孔数据集上训练以ResNet50为基础网络的Faster R-CNN目标检测模型。最后,将螺纹孔处局部图像输入训练好的Faster R-CNN目标检测模型进一步识别并进行定位。实验结果表明,该方法能有效地避免螺纹孔小目标检测,相对于单独使用Hough变换方法或者Faster R-CNN目标检测方法检测螺纹孔,具有更高的识别和定位精度。  相似文献   

13.
为了解决传统图像处理方法对于铸铝材料表面缺陷检测通用性不高、准确度低等问题,研究了一种基于Mask R-CNN神经网络的缺陷检测系统。首先,采用自主研发的缺陷检测装置采集柱塞式制动主缸内槽表面图像,对其进行预处理,制作成Microsoft COCO格式数据集;其次,搭建适用于该数据集的Mask R-CNN神经网络结构,并绘制训练过程损失函数与平均精度均值曲线;最后,将检测结果与基于SVM和Faster R-CNN模型的检测结果进行比较,统计了3种神经网络模型的单图检测平均时间和识别率。试验结果表明,在相同样本条件下,该方法的识别率比另外2种方法高,达到了93.6%,能够更精确地检测柱塞式制动主缸内槽的表面缺陷。  相似文献   

14.
针对目前铸件缺陷检测漏检率高的问题,提出一种基于深度学习模型融合的铸件缺陷检测方法。 首先对 Faster RCNN 网络进行改进,利用特征金字塔结构改进特征提取网络模块,实现多尺度的特征融合,完成铸件缺陷的特征提取;然后,基于 ROI Align 对网络中的 ROI 池化层进行改进,将 IOU 分数引入 NMS 算法判定过程;再将改进后的网络与 Cascade RCNN 以及 YOLOv3 进行融合;最后进行实验研究,验证了融合模型能够有效降低铸件缺陷的漏检率。 实验结果表明,将感兴趣区域池化 改进后,在 Faster RCNN 模型中的缺陷召回率提升了 1. 73% ,在本文网络模型中的缺陷召回率提升了 4. 08% ;采用模型融合的 方法在不考虑分类准确度的情况下,整个模型的缺陷识别率达到 95. 71% ,与单个模型相比,在保证铸件缺陷检测准确率的同 时,提高了缺陷检测的召回率,满足了工业应用的要求。  相似文献   

15.
为了进一步提高遥感图像超分辨效果,提高超分辨重建速度。针对以往稀疏超分辨算法中更容易丢失边缘信息和引入噪声的问题,本文改进了特征提取算子,以对称近邻滤波(SNN)代替高斯滤波,重点解决特征空间中的字典学习问题。首先,根据遥感图像退化模型生成训练样本图像,并分别对高、低分辨率遥感图像进行7×7分块,生成字典训练样本。然后,建立连接高、低分辨率图像空间的双参数联合稀疏字典,将字典学习过程中的稀疏系数分解为系数权值和字典原子的乘积,依据字典原子指标训练和更新字典,得到高低分辨率联合字典映射矩阵。最后,进行遥感图像超分辨稀疏重构。实验结果表明:与当前最先进的稀疏表示超分辨算法相比,本文算法得到的超分辨重建遥感图像的主观效果更好,恢复出更多的地物细节信息;客观评价参数峰值信噪比(PSNR)提高约1.7dB,结构相似性(SSIM)提高约0.016。改进的稀疏表示超分辨算法可以有效地提高遥感图像超分辨效果,同时降低重建时间。  相似文献   

16.
针对自主驾驶车辆在真实驾驶环境下对低辨识目标的识别问题,提出了基于多模态特征融合的目标检测方法。基于Faster R-CNN算法设计多模态深度卷积神经网络,融合彩色图像、偏振图像、红外图像特征,提高对低辨识目标的检测性能;开发多模态(3种)图像低辨识度目标实时检测系统,探索多模态图像特征融合在自动驾驶智能感知系统中的应用。建立了人工标注过的多模态(3种)图像低辨识目标数据集,对深度学习神经网络进行训练,优化内部参数,使得该系统适用于复杂环境下对行人、车辆目标的检测和识别。实验结果表明,相对于传统的单模态目标检测算法,基于多模态特征融合的深度卷积神经网络对复杂环境下的低辨识目标具有更好的检测和识别性能。  相似文献   

17.
炭素制品缺陷X射线自动检测关键技术的研究   总被引:2,自引:0,他引:2  
以炭素制品X射线检测图像为对象,对其关键技术进行了研究。设计了目标边界提取算法和基于小波变换的图像增强算法等预处理方法。采用数学形态学和迭代阈值分割相结合的方法进行缺陷提取,取得了良好的效果。制定了一套用于特征描述的参数,设计了基于遗传算法的特征选择策略,实现了对缺陷原始特征量的优化选择。利用BP神经网络分类器及选择的特征值对缺陷进行了模式分类。实验结果表明,本文提出的方法比较有效,可以用于实际缺陷的自动提取与识别。  相似文献   

18.
为了实现复杂场景下激光跟踪仪跟踪恢复过程中合作目标靶球的检测,本文研究了基于深度学习的靶球检测方法。首先,分析靶球自身特点、应用环境及它在跟踪恢复过程中的作用,然后根据Faster R-CNN模型原理与跟踪恢复应用需求提出基于超特征与浅层高分辨率特征信息复用的改进方法生成新的融合特征图,并优化区域建议提取参数,协同解决图像中目标多尺度变化与小尺寸导致目标漏检率高的问题;同时提出一种基于强背景干扰的困难样本挖掘方法提高模型对外形颜色等与目标近似的干扰物识别能力,解决模型误检测率高的问题。最后,本文构建了目标靶球数据集并进行了对比训练与测试。测试实验结果表明:本文提出的基于强背景干扰困难样本挖掘方法的改进Faster R-CNN模型在目标多尺度、小尺寸检测,以及对复杂背景中相似干扰物的辨别能力都有提升,最终对测试集的检测精度达到了90.11%,能够满足激光跟踪仪跟踪恢复过程对合作目标靶球的视觉检测精度要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号