首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
蔡达  范保杰 《信息与控制》2022,51(2):214-222
针对传统目标检测方法在水下识别任务中误检率较高的问题,基于一阶段全卷积检测器(FCOS)引入多尺度特征选择及中心边界特征选择,实现高精度水下目标检测。模型中的自适应加权融合特征金字塔通过设置可学习权重加权融合所有的特征层级,实现多尺度空间特征选择。此外,为了处理检测中分类和回归任务之间的特征耦合问题,并分离不同任务之间的共享特征,设计了基于空间特征解耦的检测头,实现了中心和边界区域的特征选择。实验中,针对水下数据集URPC2018和UWD2021进行性能测试,并与先进的目标检测方法进行对比。大量的实验结果表明,基于空间特征选择的FCOS模型在水下检测任务中展现出优异的性能,在URPC2018和UWD2021上的类平均精度(mean Average Precision,mAP)分别为82.7%和83.3%。  相似文献   

2.
为了解决水下相机设备捕获的鱼类图像质量差、数据量不均匀等难以准确识别鱼类的问题,提出一种基于特征融合的FL-BCNN鱼类识别算法。对B-CNN算法进行改进,融合不同卷积层的特征,提高细粒度特征的表达能力,解决了图像质量差引起的特征不明显的问题。利用焦点损失函数(Focal Loss)解决样本数据不平衡的问题,提高水下鱼类图像的识别能力。利用F4K(15)数据集与四个已有算法进行鱼类识别对比实验。实验结果表明,FL-BCNN鱼类识别算法的识别精度较高,具有较好的识别速度,可以有效解决鱼类识别中样本不平衡的问题。  相似文献   

3.
水下鱼类是重要的地球生物资源。针对现有的深度学习模型在水下鱼类图像识别场景中识别效果不佳的问题,提出了一种基于改进的Mask R-CNN的鱼类识别算法模型。首先,采用深度残差网络和特征金字塔结构对水下鱼类图像进行特征提取;其次,选用区域候选网络针对特征图生成感兴趣区域;然后,通过改进的Soft NMS算法对感兴趣区域进行后处理以减少对鱼类目标候选框的误检率;最后,在头部网络中添加级联结构对特征区域进行微调以提升鱼类识别精度。在Fish4knowledge数据集上的对比实验结果表明,改进的鱼类识别算法的平均精度均值为87.4%,相对于基线算法模型精度提升了3.6%。所提算法能够有效提高水下鱼类识别精度,同时减少误检率,提升泛化性能,对我国水下鱼类资源的开发利用具有重要的学术价值和经济价值。  相似文献   

4.
水下目标自动检测方法对海洋智能捕捞工作发挥着重要作用,针对现有目标检测方法存在的对水下生物检测精度不高问题,提出了一种GA-RetinaNet算法的水下目标检测方法.首先,针对水下图像存在密集目标的特点,通过引入分组卷积替换普通卷积,在不增加参数复杂度的基础上得到更多特征图,提高模型的检测精度;其次,根据水下生物多为小目标生物的特点,引入上下文特征金字塔模块(AC-FPN),利用上下文提取模块保证高分辨率输入的同时获得多个感受野,提取到更多上下文信息,并通过上下文注意力模块和内容注意力模块从中捕获有用特征,准确定位到目标位置.实验结果显示,选用URPC2021数据集进行实验,改进的GA-RetinaNet算法比原算法检测精度提高了2.3%.相比其他主流模型,该算法对不同类型的水下目标均获得了较好的检测结果,检测精度有较大提升.  相似文献   

5.
为了解决纺织生产工艺中瑕疵检测成本较高、精度较低、速度较慢等问题,文中提出结合注意力机制与自适应记忆性融合网络的纺织品瑕疵检测模型.首先,在YOLOv5骨干网络中引入改进的注意力模块,构建特征提取网络,增强模型对纺织品瑕疵特征的提取能力.然后,为了增强浅层定位信息的传递效应和有效缓解特征融合时产生的混叠效应,提出自适应记忆性融合网络,在提高特征尺度不变性的同时,将骨干网络中的特征信息融入特征融合层.最后,引入CDIoU(Control Distance Intersection over Union)损失函数,提高检测精度.在ZJU-Leaper纺织品瑕疵数据集和天池纺织品瑕疵数据集上的实验表明,文中模型具有较高的检测精度和较快的检测速度.  相似文献   

6.
提出了一种基于卷积神经网络和随机森林相结合的方法,用于对海洋可食用鱼类进行识别分类。通过使用YOLOv3目标检测网络对原始鱼类图片进行目标定位并使用数据增强方法对数据集进行扩充,模型在自建数据集上进行训练和微调,达到了较高的分类准确率和稳定性。实验结果表明该模型在鱼类分类任务上的有效性,并为解决传统方法对鱼类分类的困难提供了一种新思路。  相似文献   

7.
基于深度学习的海底观测视频中鱼类的识别方法   总被引:2,自引:0,他引:2  
针对海底环境恶劣、海底观测视频品质差导致视频中的海洋鱼类识别难的问题,提出一种基于深度学习的海洋鱼类识别方法。首先,将海底观测视频分解为图片,由于海底观测视频中存在较大比例的空白数据,使用背景差分法过滤不包含鱼类的图片,缩短处理全部数据的时间;然后,考虑到海底拍摄环境亮度低、场景模糊的实际情况,对图片基于暗通道先验算法进行预处理提高品质;最后,以卷积神经网络(CNN)为基础构建深度学习模型,并且提出了权重化特征的卷积过程,提高模型的鲁棒性。实验结果表明:面对较差品质的海底观测视频图片,在深度学习模型结构相同的条件下,与普通卷积神经网络模型相比,使用权重化卷积作为隐层并且加入预处理过程后,对海洋鱼类识别准确率的提升幅度达到23%,有助于实现对海底观测视频图片中海洋鱼类的精准识别。  相似文献   

8.
针对水下图像模糊、颜色失真,水下场景环境复杂、目标特征提取能力有限等导致的水下鱼类目标检测精确度低的问题,提出一种基于YOLOv5的改进水下鱼类目标检测算法.首先,针对水下图像模糊、颜色失真的问题,引入水下暗通道优先(underwater dark channel prior, UDCP)算法对图像进行预处理,有助于在不同环境下正确识别目标;然后,针对水下场景复杂、目标特征提取能力有限问题,在YOLOv5网络中引入高效的相关性通道(efficient channel attention, ECA),增强对目标的特征提取能力;最后,对损失函数进行改进,提高目标检测框的准确度.通过实验证明改进后的YOLOv5在水下鱼类目标检测中精确度比原始的YOLOv5提高了2.95%,平均检测精度(mAP@0.5:0.95)提高了5.52%.  相似文献   

9.
针对目前热轧带钢表面缺陷检测算法精度不高,检测速度慢的问题,提出了一种基于改进YOLOv5算法的网络模型。首先,引入Coordinate Attention提高模型特征提取能力;其次,对Neck结构进行改进,提出CA-BiFPN网络结构减少信息特征流失,实现多尺度信息表征;最后,使用EIOU Loss作为边框回归损失函数,提高定位精度,加快检测速度。实验结果表明,在NEU-DET数据集上相较于原YOLOv5算法平均精度均值(mAP)提高4.3%,召回率提高5.5%,精度提高2.2%,检测速度为111.1 fps,实现了识别精度与检测速度的良好均衡,具有一定的应用价值。  相似文献   

10.
针对经典的有锚框检测算法RetinaNet、无锚框检测算法FCOS等目标检测算法中存在漏检以及重复检测的问题,提出一种自适应特征融合与cosIoU-NMS的目标检测算法.首先采用自适应特征融合模块对多尺度特征中相邻3层特征加权融合,获取丰富的上下文信息和空间信息;然后采用cosIoU计算检测框之间的余弦相似度与重叠面积,使目标定位更准确;最后使用cosIoU-NMS代替Greedy-NMS抑制置信度分数较高的冗余框,保留更准确的检测结果.以RetinaNet和FCOS为基准,在PASCAL VOC数据集上的实验结果表明,所提算法的检测精度达到81.3%和82.3%,分别提升2.8个百分点和1.2个百分点;在MSCOCO数据集上检测精度达到36.8%和38.0%,分别提升1.0个百分点和0.7个百分点;该算法能够增强特征表征能力,筛除多余的检测框,有效地提高检测性能.  相似文献   

11.
贾林  李琦  梁栋 《信息与控制》2022,51(3):369-376
为解决桥梁裂缝检测时定位速度慢的问题,提出一种基于全卷积一阶(FCOS)检测器的裂缝定位改进算法。本算法采用FCOS网络模型,利用轻量级骨干网络Efficientnet提取裂缝图像特征,作为改进措施,引入加权双向特征金字塔网络(BiFPN)融合裂缝图像不同尺度的特征,从而进一步增强骨干网络的视觉特征提取效果。在自制数据...  相似文献   

12.
基于无锚点的单阶段全卷积目标检测算法(FCOS)无需生成大量的锚点避免了样本不平衡问题,但FCOS可能更适应于某一特定场景。为了增强特征融合,并提高目标检测的准确性,提出了全卷积目标检测算法FCOS的改进算法ConFCOS。该算法设计了一个增强的特征金字塔网络,引入带有全局上下文信息的注意力模块和空洞卷积模块,以减少特征融合过程中的信息衰减。另外,构建了一个级联检测头来检测对象,对检测的边界框进行细化来提高分类和回归的置信度。此外,针对提出的ConFCOS的损失函数进行了优化以提高目标检测的准确率。在COCO数据集上进行的实验表明,ConFCOS的准确度比FCOS提高了1.6个百分点。  相似文献   

13.
针对大规模拥挤场景视频中行人目标小、行人遮挡和行人交叠而导致的检测困难等问题,本文将逐像素预测目标检测框架—全卷积单阶段目标检测FCOS(fully convolutional one-stage object detection)应用于行人检测,提出一种改进的主干网络用于提取行人特征,通过增加尺度回归实现目标行人的多...  相似文献   

14.
针对当前遥感影像背景复杂、目标尺度小等情况导致的检测精度偏低的问题,基于FCOS网络提出了一种结合位置注意力和感受野增强的遥感影像目标检测算法PARF-FCOS;该算法构造了一种位置注意力模块,并利用该模块对特征提取网络进行改进,增强网络对目标信息的提取能力;在特征融合阶段使用感受野模块(RFB, receptive field block)增强浅层特征图,利用目标上下文信息进行辅助判断,提升网络对小尺度目标的检测能力;在训练过程中,引入距离交并比损失(DIoU loss,distance intersection over union loss)进行边界框回归,通过优化目标框与预测框中心点之间的距离,使回归过程更加平稳和准确;在公开数据集DIOR上评估了PARF-FCOS目标检测算法,实验结果表明,相较于原始FCOS,算法的平均精确度均值提高了4.3%,达到70.4%,检测速度达到23.2FPS。  相似文献   

15.
Rong  Wenzhong  Han  Jin  Liu  Gen 《Multimedia Tools and Applications》2022,81(6):8617-8632

Leveraging the contextual information at instance-level can improve the accuracy in object detection. However, the-state-of-the-art object detection systems still detect each target individually without using contextual information. One reason is that contextual information is difficult to model. To solve this problem, the object relation module based on one-stage object detectors helps the object detectors learn the correlations between objects. It extracts and fuses the feature maps from various layers, including geometric features, categorical features, and appearance features, a transformation driven by visual attention mechanism are then performed to generate instance-level primary object relation features. Furthermore, a lightweight subnet is used to generate new feature prediction layer based on primary relation features and fused with the original detection layer to improve the detection ability. It does not require excessive amounts of computations and additional supervision and it can be easily ported to different one-stage object detection frameworks. The relation module is added to several one-stage object detectors (YOLO, Retinanet, and FCOS) as demonstrations and evaluate it on MS-COCO benchmark dataset after training. The results show that the relation module effectively improves the accuracy in one-stage object detection pipelines. Specifically, the relation module gives a 2.4 AP improvement for YOLOv3, 1.8 AP improvement for Retinanet and 1.6 AP improvement for FCOS.

  相似文献   

16.
目的 船舶在合成孔径雷达(synthetic aperture radar, SAR)图像中的检测是研究热点,但目前适合近岸舰船检测的方法并不多。在SAR图像中,近岸舰船受到岸上建筑物的干扰严重,尤其是对于排列紧密的近岸船舶来说,其对比度相似,很难区分船舶与背景。为解决近岸舰船检测困难问题,提出了一种基于加权双向注意金字塔网络的近岸舰船检测方法。方法 本文在FCOS (fully convolutional one-stage)网络的基础上提出了一种新的双向特征金字塔网络。将卷积注意力机制模块(convolutional block attention module,CBAM)与金字塔网络的每个特征图进行连接,提取丰富的语义信息特征;借鉴PANet (path aggregation network)的思想,添加自下而上的金字塔模块,突出不同尺度船舶的显著特征。最后提出了一种加权特征融合方式,使特征图提取的特征信息的着重点不同,提高舰船检测精度。结果 本文在公开的SAR图像舰船数据集SSDD (SAR ship detection dataset)上进行实验。实验结果表明,相比原FCOS方法,本文方法的检测精度提高了9.5%;与对比方法相比,本文方法在同等条件下的检测精度达到90.2%。在速度方面,本文方法比SSD提高0.6 s,比Faster R-CNN (region convolutional neural network)提高1.67 s,明显优于对比方法。结论 本文通过改进特征网络和特征融合方式,提高了算法对SAR图像舰船目标检测中背景复杂、排列紧密的近岸舰船目标的定位效果,有效增强了对舰船目标定位的准确性。  相似文献   

17.
合成孔径雷达(Synthetic Aperture Radar, SAR)船舶检测在海洋交通监控中发挥着重要作用,传统SAR目标检测算法一般利用目标与背景杂波之间的对比度差异进行检测,在近岸海域等复杂场景下检测效果较差。为了提高在复杂场景下的检测性能,本文提出一种基于改进Faster R-CNN的船舶检测方法,在分析不同特征分辨率对检测性能影响的基础上,结合VGG的思想与扩张卷积设计一个适用于SAR船舶目标检测的特征提取网络,以提升对小型船舶目标的检测能力。另外,根据sentinel-1A数据集中目标尺寸分布选取小尺寸anchor,并通过去除冗余anchor,将检测速度提升了一倍。在sentinel-1A数据集上的实验证明本文提出的算法能够快速、有效地从复杂场景SAR图像中检测出船舶目标。  相似文献   

18.
史文旭  鲍佳慧  姚宇 《计算机应用》2020,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号