首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 593 毫秒
1.
水下目标自动检测方法对海洋智能捕捞工作发挥着重要作用,针对现有目标检测方法存在的对水下生物检测精度不高问题,提出了一种GA-RetinaNet算法的水下目标检测方法.首先,针对水下图像存在密集目标的特点,通过引入分组卷积替换普通卷积,在不增加参数复杂度的基础上得到更多特征图,提高模型的检测精度;其次,根据水下生物多为小目标生物的特点,引入上下文特征金字塔模块(AC-FPN),利用上下文提取模块保证高分辨率输入的同时获得多个感受野,提取到更多上下文信息,并通过上下文注意力模块和内容注意力模块从中捕获有用特征,准确定位到目标位置.实验结果显示,选用URPC2021数据集进行实验,改进的GA-RetinaNet算法比原算法检测精度提高了2.3%.相比其他主流模型,该算法对不同类型的水下目标均获得了较好的检测结果,检测精度有较大提升.  相似文献   

2.
针对基于无监督特征提取的目标检测方法效率不高的问题,提出一种在无标记数据集中准确检测前景目标的方法.其基本出发点是:正确的特征聚类结果可以指导目标特征提取,同时准确提取的目标特征可以提高特征聚类的精度.该方法首先对无标记样本图像进行局部特征提取,然后根据最小化特征距离进行无监督特征聚类.将同一个聚类内的图像两两匹配,将特征匹配的重现程度作为特征权重,最后根据更新后的特征权重指导下一次迭代的特征聚类.多次迭代后同时得到聚类结果和前景目标.实验结果表明,该方法有效地提高Caltech-256数据集和Google车辆图像的检测精度.此外,针对目前绝大部分无监督目标检测方法不具备增量学习能力这一缺点,提出了增量学习方法实现,实验结果表明,增量学习方法有效地提高了计算速度.  相似文献   

3.
针对零部件在工业生产线包装过程中存在检测速度慢,自动化检测水平低下,检测准确率不高等问题,提出一种基于深度学习的工业零部件检测系统的方案设计,实现对零部件自动检测的功能。设计一种实验检测平台用于获取包含待检测零部件的图像;提出一种改进网络共享卷积层结构的方法,融合区域建议网络和区域卷积网络建立一种检测方法对目标零部件进行准确定位识别,适应各种形状大小不一的零部件检测,实现端到端训练输出定位检测结果。实验结果表明,系统的检测效果与传统的检测方法相比,具有速度快,检测准确率高等优越性。  相似文献   

4.
现有目标检测算法主要以图像中的大目标作为研究对象,针对小目标的研究比较少且存在检测精确度低、无法满足实时性要求的问题,基于此,提出一种基于深度学习目标检测框架PVANet的实时小目标检测方法。首先,构建一个专用于小目标检测的基准数据集,它包含的目标在一幅图像中的占比非常小且存在截断、遮挡等干扰,可以更好地评估小目标检测方法的优劣;其次,结合区域建议网络(RPN)提出一种生成高质量小目标候选框的方法以提高算法的检测精确度和速度;选用step和inv两种新的学习率策略以改善模型性能,进一步提升检测精确度。在构建的小目标数据集上,相比原PVANet算法平均检测精确度提高了10.67%,速度提升了约30%。实验结果表明,该方法是一个有效的小目标检测算法,达到了实时检测的效果。  相似文献   

5.
伪装目标检测(COD)旨在精确且高效地检测出与背景高度相似的伪装物体, 其方法可为物种保护、医学病患检测和军事监测等领域提供助力, 具有较高的实用价值. 近年来, 采用深度学习方法进行伪装目标检测成为一个比较新兴的研究方向. 但现有大多数COD算法都是以卷积神经网络(CNN)作为特征提取网络, 并且在结合多层次特征时, 忽略了特征表示和融合方法对检测性能的影响. 针对基于卷积神经网络的伪装目标检测模型对被检测目标的全局特征提取能力较弱问题, 提出一种基于Transformer的跨尺度交互学习伪装目标检测方法. 该模型首先提出了双分支特征融合模块, 将经过迭代注意力的特征进行融合, 更好地融合高低层特征; 其次引入了多尺度全局上下文信息模块, 充分联系上下文信息增强特征; 最后提出了多通道池化模块, 能够聚焦被检测物体的局部信息, 提高伪装目标检测准确率. 在CHAMELEON、CAMO以及COD10K数据集上的实验结果表明, 与当前主流的伪装物体检测算法相比较, 该方法生成的预测图更加清晰, 伪装目标检测模型能取得更高精度.  相似文献   

6.
目的 随着工业领域智能分拣业务的兴起,目标检测引起越来越多的关注。然而为了适应工业现场快速部署和应用的需求,算法只能在获得少量目标样本的情况下调整参数;另外工控机运算资源有限,工业零件表面光滑、缺乏显著的纹理信息,都不利于基于深度学习的目标检测方法。目前普遍认为Line2D可以很好地用于小样本情况的低纹理目标快速匹配,但Line2D不能正确匹配形状相同而颜色不同的两个零件。对此,提出一种更为鲁棒的低纹理目标快速匹配框架CL2D (color Line2D)。方法 首先使用梯度方向特征作为物体形状的描述在输入图像快速匹配,获取粗匹配结果;然后通过非极大值抑制和颜色直方图比对完成精细匹配。最后根据工业分拣的特点,由坐标变换完成对目标的抓取点定位。结果 为了对算法性能进行测试,本文根据工业分拣的实际环境,提出了YNU-BBD 2020(YNU-building blocks datasets 2020)数据集。在YNU-BBD 2020数据集上的测试结果表明,CL2D可以在CPU平台上以平均2.15 s/幅的速度处理高分辨率图像,在精度上相比于经典算法和深度学习算法,mAP (mean average precision)分别提升了10%和7%。结论 本文针对工业零件分拣系统的特点,提出了一种快速低纹理目标检测方法,能够在CPU平台上高效完成目标检测任务,并且相较于现有方法具有显著优势。  相似文献   

7.
目的 海面目标检测图像中的小目标数量居多,而基于深度学习的目标检测方法通常针对通用目标数据集设计检测模型,对图像中的小目标检测效果并不理想。使用一般目标检测模型检测海面目标图像的特征时,通常会出现小目标漏检情况,而一些特定的小目标检测模型对海面目标的检测效果还有待验证。为此,在标准的SSD(single shot multiBox detector)目标检测模型基础上,结合Xception深度可分卷积,提出一种轻量SSD模型用于海面目标检测。方法 在标准的SSD目标检测模型基础上,使用基于Xception网络的深度可分卷积特征提取网络替换VGG-16(Visual Geometry Group network-16)骨干网络,通过控制变量来对比不同网络的检测效果;在特征提取网络中的exit flow层和Conv1层引入轻量级注意力机制模块来提高检测精度,并与在其他层引入轻量级注意力机制模块的模型进行检测效果对比;使用注意力机制改进的轻量SSD目标检测模型和其他几种模型分别对海面目标检测数据集中的小目标和正常目标进行测试。结果 为证明本文模型的有效性,进行了多组对比实验。实验结果表明,模型轻量化导致特征表达能力降低,从而影响检测精度。相对于标准的SSD目标检测模型,本文模型在参数量降低16.26%、浮点运算量降低15.65%的情况下,浮标的平均检测精度提高了1.1%,漏检率减小了3%,平均精度均值(mean average precision,mAP)提高了0.51%,同时,保证了船的平均检测精度,并保证其漏检率不升高,在对数据集中的小目标进行测试时,本文模型也表现出较好的检测效果。结论 本文提出的海面小目标检测模型,能够在压缩模型的同时,保证模型的检测速度和检测精度,达到网络轻量化的效果,并且降低了小目标的漏检率,可以有效实现对海面小目标的检测。  相似文献   

8.
Videos are generated at an unprecedented speed on the web. To improve the efficiency of access, developing new ways to filter the videos becomes a popular research topic. One on-going direction is using visual objects to perform frame-level video filtering. Under this direction, existing works create the unique object table and the occurrence table to maintain the connections between videos and objects. However, the creation process is not scalable and dynamic because it heavily depends on human labeling. To improve this, we propose to use detected visual objects to create these two tables for frame-level video filtering. Our study begins with investigating the existing object detection techniques. After that, we find object detection lacks the identification and connection abilities to accomplish the creation process alone. To supply these abilities, we further investigate three candidates, namely, recognizing-based, matching-based and tracking-based methods, to work with the object detection. Through analyzing the mechanism and evaluating the accuracy, we find that they are imperfect for identifying or connecting the visual objects. Accordingly, we propose a novel hybrid method that combines the matching-based and tracking-based methods to overcome the limitations. Our experiments show that the proposed method achieves higher accuracy and efficiency than the candidate methods. The subsequent analysis shows that the proposed method can efficiently support the frame-level video filtering using visual objects.  相似文献   

9.
SSD (Single Shot multi-box Detector)算法是在不同层的特征图上,进行多尺度对象的检测,具有速度快和精度高的特点.但是,传统SSD算法的特征金字塔检测方法很难融合不同尺度的特征,并且由于底层的卷积神经网络层具有较弱的语义信息,也不利于小物体的识别,因此本论文提出了以SSD算法的网络结构为基础的一种新颖的目标检测算法RF_SSD,该算法将不同层及不同尺度的特征图以轻量级的方式相融合,下采样层生成新的特征图,通过引入感受野模块,提高网络的特征提取能力,增强特征的表征能力和鲁棒性.和传统SSD算法相比,本文算法在精度上有明显提升,同时充分保证了目标检测的实时性.实验结果表明,在PASCAL VOC测试集上测试,准确率为80.2%,检测速度为44.5 FPS.  相似文献   

10.
随着计算机视觉和人工智能技术的快速发展,目标检测受到了更加广泛的关注。由于小目标像素占比小、语义信息少、易受复杂场景干扰以及易聚集遮挡等问题,导致小目标检测一直是目标检测领域中的一大难点。目前,视觉的小目标检测在生活的各个领域中日益重要。为了进一步促进小目标检测的发展,提高小目标检测的精度与速度,优化其算法模型,本文针对小目标检测中存在的问题,梳理了国内外研究现状及成果。首先,分别从小目标可视化特征、目标分布情况和检测环境等角度对小目标检测的难点进行了分析,同时从数据增强、超分辨率、多尺度特征融合、上下文语义信息、锚框机制、注意力机制以及特定的检测场景等方面系统总结了小目标检测方法,并整理了在框架结构、损失函数、预测和匹配机制等方面发展的较为成熟的单阶段小目标检测方法。其次,本文对小目标检测的评价指标以及可用于小目标检测的各类数据集进行了详细介绍,并针对部分经典的小目标检测方法在MSCOCO(Microsoft common objects in context)、VisDrone2021(vision meets drones2021)和Tsinghua-Tencent100K等数据...  相似文献   

11.
Active contour models are widely used in extracting object boundaries. However, most of these models usually fail to capture concave boundaries properly and impose high computational cost. In this paper, a new active contour model based on the Conscience, Archiving and Mean-Movement mechanisms and the SOM (CAMSOM) is proposed to eliminate these deficiencies. The proposed method extends the Batch SOM method (BSOM) by introducing three mechanisms of Conscience, Archiving and Mean-Movement mechanisms. To evaluate the performance of the proposed method compared with both energy minimization and SOM-based methods, some experiments are carried out on a set of grayscale images including synthetic and real ones. The experimental results are compared with those of the BSOM in terms of accuracy and convergence speed. The results reveal that, compared to BSOM, the proposed method requires less computations to converge to the object boundaries and extracts the boundaries of complex objects more accurately, even in the presence of weak or broken edges. Moreover, CAMSOM has higher performance and accuracy in capturing the boundaries of the objects placed arbitrarily in a multi-object scene, whereas the performance of BSOM in multi-object scenes highly depends on the arrangement of the objects. Compared to the energy minimization methods, the proposed method can accurately and quickly converges to the concave boundaries, whereas gradient vector flow (GVF) and vector field convolution (VFC) which are two well-known energy minimization methods get stuck in local minima and cannot proceed to the end of the concavity.  相似文献   

12.
This paper describes an object detection framework that learns the discriminative co-occurrence of multiple features. Feature co-occurrences are automatically found by Sequential Forward Selection at each stage of the boosting process. The selected feature co-occurrences are capable of extracting structural similarities of target objects leading to better performance. The proposed method is a generalization of the framework proposed by Viola and Jones, where each weak classifier depends only on a single feature. Experimental results obtained using four object detectors, for finding faces and three different hand gestures, respectively, show that detectors trained with the proposed algorithm yield consistently higher detection rates than those based on their framework while using the same number of features.  相似文献   

13.
目的 受光照变化、拍摄角度、物体数量和物体尺寸等因素的影响,室内场景下多目标检测容易出现准确性和实时性较低的问题。为解决此类问题,本文基于物体的彩色和深度图像组,提出了分步超像素聚合和多模态信息融合的目标识别检测方法。方法 在似物性采样(object proposal)阶段,依据人眼对显著性物体观察时先注意其色彩后判断其空间深度信息的理论,首先对图像进行超像素分割,然后结合颜色信息和深度信息对分割后的像素块分步进行多阈值尺度自适应超像素聚合,得到具有颜色和空间一致性的似物性区域;在物体识别阶段,为实现物体不同信息的充分表达,利用多核学习方法融合所提取的物体颜色、纹理、轮廓、深度多模态特征,将特征融合核输入支持向量机多分类机制中进行学习和分类检测。结果 实验在基于华盛顿大学标准RGB-D数据集和真实场景集上将本文方法与当前主流算法进行对比,得出本文方法整体的检测精度较当前主流算法提升4.7%,运行时间有了大幅度提升。其中分步超像素聚合方法在物体定位性能上优于当前主流似物性采样方法,并且在相同召回率下采样窗口数量约为其他算法的1/4;多信息融合在目标识别阶段优于单个特征和简单的颜色、深度特征融合方法。结论 结果表明在基于多特征的目标检测过程中本文方法能够有效利用物体彩色和深度信息进行目标定位和识别,对提高物体检测精度和检测效率具有重要作用。  相似文献   

14.
目的 目前主流物体检测算法需要预先划定默认框,通过对默认框的筛选剔除得到物体框。为了保证足够的召回率,就必须要预设足够密集和多尺度的默认框,这就导致了图像中各个区域被重复检测,造成了极大的计算浪费。提出一种不需要划定默认框,实现完全端到端深度学习语义分割及物体检测的多任务深度学习模型(FCDN),使得检测模型能够在保证精度的同时提高检测速度。方法 首先分析了被检测物体数量不可预知是目前主流物体检测算法需要预先划定默认框的原因,由于目前深度学习物体检测算法都是由图像分类模型拓展而来,被检测数量的无法预知导致无法设置检测模型的输出,为了保证召回率,必须要对足够密集和多尺度的默认框进行分类识别;物体检测任务需要物体的类别信息以实现对不同类物体的识别,也需要物体的边界信息以实现对各个物体的区分、定位;语义分割提取了丰富的物体类别信息,可以根据语义分割图识别物体的种类,同时采用语义分割的思想,设计模块提取图像中物体的边界关键点,结合语义分割图和边界关键点分布图,从而完成物体的识别和定位。结果 为了验证基于语义分割思想的物体检测方法的可行性,训练模型并在VOC(visual object classes)2007 test数据集上进行测试,与目前主流物体检测算法进行性能对比,结果表明,利用新模型可以同时实现语义分割和物体检测任务,在训练样本相同的条件下训练后,其物体检测精度优于经典的物体检测模型;在算法的运行速度上,相比于FCN,减少了8 ms,比较接近于YOLO(you only look once)等快速检测算法。结论 本文提出了一种新的物体检测思路,不再以图像分类为检测基础,不需要对预设的密集且多尺度的默认框进行分类识别;实验结果表明充分利用语义分割提取的丰富信息,根据语义分割图和边界关键点完成物体检测的方法是可行的,该方法避免了对图像的重复检测和计算浪费;同时通过减少语义分割预测的像素点数量来提高检测效率,并通过实验验证简化后的语义分割结果仍足够进行物体检测任务。  相似文献   

15.
摘 要: 为提高物体识别性能,提出了一种基于多稀疏分布特征和最近邻分类的目标识别方法。首先,提取图像的梯度模值和方向特征,构建梯度模值和方向图像;然后,分别对灰度图像、梯度模值图像和梯度方向图像进行稀疏表示,提取稀疏分布特征,得到融合后的多稀疏分布特征;最后,依据最近邻分类方法进行特征分类,实现物体识别。通过在国际公认的COIL-100和PVOC-2007两个公共测试数据集下进行对比实验,对本文方法的参数选择、鲁棒性和识别性能进行综合评价。实验结果表明,采用本文方法进行物体识别的识别率高于目前经典的SIFT、SURF和ORB方法,是一种有效的物体识别方法。  相似文献   

16.
针对高速公路场景下的车辆目标检测问题,提出了一种改进的YOLOv4网络对交通场景下车辆目标进行检测的方法;制作了一个多天候、多时段、多场景的车辆目标数据集,并依据数据集得到检测模型;提出多标签检测方法,并在多标签之间建立约束关系,得到更完善的车辆信息;提出了一个图像拼接检测方法,将多幅图像通过拼接层连接后进行车辆检测,以此提升网络的运行效率。实验结果表明,多样化数据集提高了车辆检测精度,减少了车辆目标的误检、漏检,同时改进的网络结构较大提升了检测速度,上述方法可以为高速公路场景下的车辆目标检测与实际应用提供参考。  相似文献   

17.
基于序列图像的实时人流检测与识别算法研究   总被引:1,自引:0,他引:1  
针对可见光下人流检测、识别算法中存在的运动目标分割准确率低、识别效果差等问题,提出一种新的跟踪与识别方法.首先利用序列图像中运动目标时空一致性,将帧间二阶差分(SODP)与边缘检测相结合进行运动目标分割;再根据行人运动模型和运动目标局部性特征,通过粗采样方法快速提取跟踪特征向量;利用运动目标轮廓投影比、形状因子等特征分量,并构造基于人工神经网络的运动目标分类器进行识别.通过对大型商场进行的实际测试表明:该方法在运行效率、识别准确率方面均取得满意结果.同时,算法对于光线、阴影和人流变化等外界因素的影响,具有较强适应性.  相似文献   

18.
近年来,深度学习算法逐渐尝试应用于目标检测领域。本文针对实际交通场景下的车辆目标,应用深度学习目标分类算法中具有代表性的Faster R-CNN框架,结合ImageNet中的车辆数据集,把场景中的目标检测问题转化为目标的二分类问题,进行车辆目标的检测识别。相比传统机器学习目标检测算法,基于深度学习的目标检测算法在检测准确度和执行效率上优势明显。通过本实验结果分析表明,该方法在识别精度以及速度上均取得了显著的提高。  相似文献   

19.
RGB-D sensors have become in recent years a product of easy access to general users. They provide both a color image and a depth image of the scene and, besides being used for object modeling, they can also offer important cues for object detection and tracking in real time. In this context, the work presented in this paper investigates the use of consumer RGB-D sensors for object detection and pose estimation from natural features. Two methods based on depth-assisted rectification are proposed, which transform features extracted from the color image to a canonical view using depth data in order to obtain a representation invariant to rotation, scale and perspective distortions. While one method is suitable for textured objects, either planar or non-planar, the other method focuses on texture-less planar objects. Qualitative and quantitative evaluations of the proposed methods are performed, showing that they can obtain better results than some existing methods for object detection and pose estimation, especially when dealing with oblique poses.  相似文献   

20.
Learning object identification rules for information integration   总被引:2,自引:0,他引:2  
When integrating information from multiple websites, the same data objects can exist in inconsistent text formats across sites, making it difficult to identify matching objects using exact text match. We have developed an object identification system called Active Atlas, which compares the objects’ shared attributes in order to identify matching objects. Certain attributes are more important for deciding if a mapping should exist between two objects. Previous methods of object identification have required manual construction of object identification rules or mapping rules for determining the mappings between objects. This manual process is time consuming and error-prone. In our approach. Active Atlas learns to tailor mapping rules, through limited user input, to a specific application domain. The experimental results demonstrate that we achieve higher accuracy and require less user involvement than previous methods across various application domains.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号