首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
人脸检测是指检测并定位输入图像中所有的人脸,并返回精确的人脸位置和大小,是目标检测的重要方向。为了解决人脸尺度多样性给人脸检测造成的困难,该文提出一种新的基于单一神经网络的特征图融合多尺度人脸检测算法。该算法在不同大小的卷积层上预测人脸,实现实时多尺度人脸检测,并通过将浅层的特征图融合引入上下文信息提高小尺寸人脸检测精度。在数据集FDDB和WIDERFACE测试结果表明,所提方法达到了先进人脸检测的水平,并且该方法去掉了框推荐过程,因此检测速度更快。在WIDERFACE难、适中、简单3个子数据集上测试结果分别为87.9%, 93.2%, 93.4% MAP,检测速度为35 fps。所提算法与目前效果较好的极小人脸检测方法相比,在保证精度的同时提高了人脸检测速度。  相似文献   

2.
目标检测是计算机视觉领域的研究热点和基础任务,其中基于锚点(Anchor)的目标检测已在众多领域得到广泛应用。当前锚点选取方法主要面临两个问题:基于特定数据集的先验取值尺寸固定、面对不同场景泛化能力弱。计算锚框的无监督K-means算法,受初始值影响较大,对目标尺寸较单一的数据集聚类产生的锚点差异较小,无法充分体现网络多尺度输出的特点。针对上述问题,本文提出一种基于多尺度的目标检测锚点构造方法(multi-scale-anchor, MSA),将聚类产生的锚点根据数据集本身的特性进行尺度的缩放和拉伸,优化的锚点即保留原数据集的特点也体现了模型多尺度的优势。另外,本方法应用在训练的预处理阶段,不增加模型推理时间。最后,选取单阶段主流算法YOLO(You Only Look Once),在多个不同场景的红外或工业场景数据集上进行丰富的实验。结果表明,多尺度锚点优化方法 MSA能显著提高小样本场景的检测精度。  相似文献   

3.
在智能交通领域中,道路场景的三维目标实时检测对于保障汽车行驶安全具有重要意义.使用雷达点云和图像数据进行融合能够达到优势互补的效果,然而使用这两种数据融合的三维目标检测算法为得到较高的检测精度,通常都采用两阶段网络,相比于单阶段网络运算速度较慢,而在实际应用中检测系统的速度是非常重要的.针对以上问题,在单阶段网络RetinaNet上进行改进,设计了一种三维目标实时检测方法,将三维锚框映射到点云和图像的特征图上,利用ROI池化,将锚框在特征图上裁剪出的区域转换成相同大小并融合,最终输出目标边界框的回归参数和类别,并且对锚框进行调整得到目标预测边界框.在KITTI数据集上进行的实验表明,所研究的网络在行人、车辆等多目标检测的精确度和时间消耗方面均优于对比算法.  相似文献   

4.
针对无锚框目标检测算法CenterNet中,目标特征利用程度不高、检测结果不够准确的问题,该文提出一种双分支特征融合的改进算法。在算法中,一个分支包含了特征金字塔增强模块和特征融合模块,以对主干网络输出的多层特征进行融合处理。同时,为利用更多的高级语义信息,在另一个分支中仅对主干网络的最后一层特征进行上采样。其次,对主干网络添加了基于频率的通道注意力机制,以增强特征提取能力。最后,采用拼接和卷积操作对两个分支的特征进行融合。实验结果表明,在公开数据集PASCAL VOC上的检测精度为82.3%,比CenterNet算法提高了3.6%,在KITTI数据集上精度领先其6%,检测速度均满足实时性要求。该文提出的双分支特征融合方法将不同层的特征进行处理,更好地利用浅层特征中的空间信息和深层特征中的语义信息,提升了算法的检测性能。  相似文献   

5.
郑哲  雷琳  孙浩  匡纲要 《信号处理》2021,37(9):1669-1680
目标检测是遥感图像处理领域中一项重要而具有挑战性的任务,针对遥感图像中目标尺度差异较大以及方向分布随机等导致的遥感图像多尺度目标检测精度较低问题,本文提出一种基于特征增强和锚点框自动生成模块的目标检测方法。该方法在ResNet50网络中加入可操控的空洞卷积模块,并以此为基础设计了增强特征金字塔网络,提高网络对于目标多尺度特征表达能力。在区域建议网络中利用锚点框自动生成模块自主学习锚点框的位置和形状,以此获得更为稀疏和高质量的候选区域。本文在NWPU VHR-10数据集和飞机目标数据集上与多种基于卷积神经网络的目标检测算法进行对比实验,结果表明,本文所提方法在两个数据集上的mAP均为最优,分别为99.2%和87.7%,该方法具有较强的尺度自适应能力,有效的提高了遥感图像多尺度目标检测的精度。   相似文献   

6.
将深度学习方法结合进目标检测算法突破了传统算法的性能瓶颈,成为计算机视觉领域一个热门的研究课题.本文对当下最流行的基于深度学习物体目标检测算法进行深入研究,得出一个整体认识,为目标检测应用系统开发的先进性与高效性提供有益的理论指导.沿着时间顺序梳理了深度卷积神经网络进入物体目标检测算法的发展过程,按照两阶段和一阶段实现对主要的算法划分两大类别;同时,参考是否采用锚框又分为基于锚框和非锚框的两种方式.围绕发展更成熟的基于锚框的检测系统详细探讨了算法的实现原理,并指出当前物体目标检测系统面临的难点问题和关键技术.最后,对物体目标检测算法发展的方向进行了展望.  相似文献   

7.
SAR图像中舰船目标稀疏分布、锚框的设计,对现有基于锚框的SAR图像目标检测方法的精度和泛化性有较大影响,因此该文提出一种上下文信息融合与分支交互的SAR图像舰船目标无锚框检测方法,命名为CI-Net.考虑到SAR图中舰船尺度的多样性,在特征提取阶段设计上下文融合模块,以自底向上的方式融合高低层信息,结合目标上下文信息...  相似文献   

8.
安防场景的行人目标检测不仅需要识别并标定行人位置,还需要对人脸进行检测与提取,支持人脸比对等下游任务。当前目标检测算法在实际应用中存在运行速度慢、边界框标定不准确、小目标检测效果不佳等问题,文中提出一种基于SSD检测器的安防场景下的行人目标检测算法。针对检测器因为分类与定位子任务强耦合造成边界框标定不准确的问题,采用一种解耦的“检测头”保证检测器定位精度,并通过在不同分支上引入特征增强模块提取适应不同子任务的特征;采用一种任务耦合的损失函数来提升训练效果;针对运行速度慢,采用轻量化网络作为主干网络,结合TensorRT量化模型提升算法在嵌入式平台上的运行速度。通过在NVIDIA TX2嵌入式深度学习平台进行实验,单帧图像检测时间为23.8 ms,平均帧率约为42 f/s,算法具备优秀的实时性与准确性。  相似文献   

9.
齐悦  董云云  王溢琴 《红外与激光工程》2022,51(12):20220176-1-20220176-8
针对大规模姿态变化和大角度人脸平面旋转(Rotation-in-Plane, RIP)等复杂条件下,多尺度旋转人脸检测精度低的问题,提出了一种基于汇聚级联卷积神经网络(Convolutional Neural Networks, CNN)的旋转人脸检测方法。采用由粗到精的级联策略,在主网络SSD的多个特征层上汇聚级联了多个浅层的卷积神经网络,逐步完成人脸/非人脸检测、人脸边界框位置更新和人脸RIP角度估计。该方法在Rotate FDDB和Rotate Sub-WIDER FACE数据集上取得了较好的检测效果。在Rotate Sub-WIDER FACE数据集出现100次误报时的检测精度为87.1%,速度为45 FPS,证明该方法可在低时间损耗下完成精确的旋转人脸检测。  相似文献   

10.
目标检测是自动驾驶的重要前提,是与外界信息交互的重要环节。针对夜间远处行人检测识别精度低、漏检的问题,提出一种针对检测小尺寸行人的YOLOv5-p4的夜间行人识别模型。首先,通过增加更小目标的检测层,引入BiFPN特征融合机制,防止小目标被噪声淹没,使网络模型可以更聚焦于物体的细小特征;同时使用K-means先验框聚类出更小目标的锚框,并且使用了多尺度的数据增强方法,增加模型的鲁棒性。使用了MetaAcon-C激活函数与EIoU回归损失函数使模型收敛效果更好,提升了算法远距离行人的检测的准确率。最后在红外行人数据集FLIR上验证改进后的YOLOv5-p4模型对于行人的检测能力,实验结果表明该方法与传统方法相比,准确率从86.9%提升到90.3%,适合用于红外图像中的行人检测。  相似文献   

11.
针对红外与可见光图像在融合后容易出现伪影,小目标轮廓不清晰等问题,提出一种基于多尺度特征与注意力模型相结合的红外与可见光图像融合算法。通过5次下采样提取源图像不同尺度的特征图,再将同一尺度的红外与可见光特征图输入到基于注意力模型的融合层,获得增强的融合特征图。最后把小尺度的融合特征图进行5次上采样,再与上采样后同一尺度的特征图相加,直到与源图像尺度一致,实现对特征图的多尺度融合。实验对比不同融合框架下融合图像的熵、标准差、互信息量、边缘保持度、小波特征互信息、视觉信息保真度以及融合效率,本文方法在多数指标上优于对比算法,且融合图像目标细节明显轮廓清晰。  相似文献   

12.
李宇豪  吕晓琪  谷宇  张明  李菁 《激光技术》2021,45(6):722-728
为了解决人脸检测存在小目标人脸携带的特征信息少且相对较为模糊,导致检测难度较高的问题,采用将尺度不变人脸检测器(S3FD)网络与通道和空间注意力机制相结合的网络作为主干,在通道和空间上建立了特征之间的权重关系,强化特征提取能力,将原本S3FD所输出的特征图经扩大感受野后进行上采样,使得上一层特征图的输出包含了下一层特征图的特征。结果表明, widerface数据集的3个不同等级的验证集的平均精准率分别为95.0%,93.7%,86.4%,与原S3FD相比分别提高了1.3%,1.2%,0.5%。本文中提出的算法在人脸检测中具有较好的检测效果。  相似文献   

13.

Detecting small-scale pedestrians in aerial images is a challenging task that can be difficult even for humans. Observing that the single image based method cannot achieve robust performance because of the poor visual cues of small instances. Considering that multiple frames may provide more information to detect such difficult case instead of only single frame, we design a novel video based pedestrian detection method with a two-stream network pipeline to fully utilize the temporal and contextual information of a video. An aggregated feature map is proposed to absorb the spatial and temporal information with the help of spatial and temporal sub-networks. To better capture motion information, a more refined flow net (SPyNet) is adopted instead of a simple flownet. In the spatial stream subnetwork, we modified the backbone network structure by increasing the feature map resolution with relatively larger receptive field to make it suitable for small-scale detection. Experimental results based on drone video datasets demonstrate that our approach improves detection accuracy in the case of small-scale instances and reduces false positive detections. By exploiting the temporal information and aggregating the feature maps, our two-stream method improves the detection performance by 8.48% in mean Average Precision (mAP) from that of the basic single stream R-FCN method, and it outperforms the state-of-the-art method by 3.09% on the Okutama Human-action dataset.

  相似文献   

14.
This paper presents a method which utilizes color, local symmetry and geometry information of human face based on various models. The algorithm first detects most likely face regions or ROIs (Region-Of-Interest) from the image using face color model and face outline model, produces a face color similarity map. Then it performs local symmetry detection within these ROIs to obtain a local symmetry similarity map. The two maps and local similarity map are fused to obtain potential facial feature points. Finally similarity matching is performed to identify faces between the fusion map and face geometry model under affine transformation. The output results are the detected faces with confidence values. The experimental results demonstrate its validity and robustness to identify faces under certain variations.  相似文献   

15.
色彩提供了比灰度更为丰富的信息,鉴于彩色人脸图像所包含的鉴别信息远多于灰度人脸图像,将色度马氏距离图引入彩色人脸识别中.基于YCbCr颜色空间,分离彩色人脸图像的色度与亮度信息,构建出基于色度信息的马氏距离图,同时分离出基于亮度信息的灰度图.提出一种色度马氏距离图与灰度图特征自适应融合的人脸识别算法.分别构造出色度马氏距离图与灰度图的基于小波包结点能量的归一化特征向量,采用多种融合策略进行特征融合,并根据融合效果自适应地选取特征融合参数,构造出最佳的鉴别特征向量,实现色度与亮度特征的互补.使用基于方差相似度的分类器获得人脸识别结果.实验表明:该算法识别率高、鲁棒性好.  相似文献   

16.
行人检测中,小尺度行人时常被漏检、误检。为了提升小尺度行人的检测准确率并且降低其漏检率,该文提出一个特征增强模块。首先,考虑到小尺度行人随着网络加深特征逐渐减少的问题,特征融合策略突破特征金字塔层级结构的约束,融合深层、浅层特征图,保留了大量小尺度行人特征。然后,考虑到小尺度行人特征容易与背景信息发生混淆的问题,通过自注意力模块联合通道注意力模块建模特征图空间、通道关联性,利用小尺度行人上下文信息和通道信息,增强了小尺度行人特征并且抑制了背景信息。最后,基于特征增强模块构建了一个小尺度行人检测器。所提方法在CrowdHuman数据集中小尺度行人的检测准确率为19.8%,检测速度为22帧/s,在CityPersons数据集中小尺度行人的误检率为13.1%。结果表明该方法对于小尺度行人的检测效果优于其他对比算法且实现了较快的检测速度。  相似文献   

17.
人类视觉注意机制在目标检测中的应用   总被引:14,自引:0,他引:14  
根据人类视觉感知理论,在介绍了两种比较有代表性的视觉注意模型的基础上,采用bottom—up控制策略的预注意机制和top—down控制策略的注意机制,提出了一种适用于自动目标识别的目标检测算法。从输入图像出发,采用Gabor算子建立多尺度、多方位的多通道图像,通过全波整流和各通道间的对比度增益控制,得到多尺度、多方位的方位特征图,这些特征图的线性组合则为显著性图。给出了仅采用bottom—up控制策略的船舶目标检测实验结果,待检测目标在显著性图中得到明显增强,有利于检测的实现。  相似文献   

18.
张佳欣  王华力 《信号处理》2021,37(9):1623-1632
针对目标检测算法直接应用于SAR图像舰船检测数据集时数据训练不充分、鲁棒性差等问题,本文提出了一种改进YOLOv3的SAR图像舰船目标检测方法,从改进网络训练策略的角度出发,提升算法对不同舰船目标的适应性,优化算法的检测性能。改进主要包括两个方面:一方面本文在YOLOv3的基础上引入了ATSS(Adaptive Training Sample Selection)正负样本的分配方法,提高YOLOv3中正负样本选择的质量,优化网络训练。另一方面本文设计了基于特征层的锚框超参数优化方法,使锚框更加贴合各检测层数据集样本分布,从而使训练模型更好的收敛。本文分别在SSDD、SAR-Ship-Dataset数据集上进行了实验,验证了其有效性。   相似文献   

19.
现有的基于分割的场景文本检测方法仍较难区分相邻文本区域,同时网络得到分割图后后处理阶段步骤复杂导致模型检测效率较低.为了解决此问题,该文提出一种新颖的基于全卷积网络的场景文本检测模型.首先,该文构造特征提取器对输入图像提取多尺度特征图.其次,使用双向特征融合模块融合两个平行分支特征的语义信息并促进两个分支共同优化.之后,该文通过并行地预测缩小的文本区域图和完整的文本区域图来有效地区分相邻文本.其中前者可以保证不同的文本实例之间具有区分性,而后者能有效地指导网络优化.最后,为了提升文本检测的速度,该文提出一个快速且有效的后处理算法来生成文本边界框.实验结果表明:在相关数据集上,该文所提出的方法均实现了最好的效果,且比目前最好的方法在F-measure指标上最多提升了1.0%,并且可以实现将近实时的速度,充分证明了该方法的有效性和高效性.  相似文献   

20.
现有的基于分割的场景文本检测方法仍较难区分相邻文本区域,同时网络得到分割图后后处理阶段步骤复杂导致模型检测效率较低。为了解决此问题,该文提出一种新颖的基于全卷积网络的场景文本检测模型。首先,该文构造特征提取器对输入图像提取多尺度特征图。其次,使用双向特征融合模块融合两个平行分支特征的语义信息并促进两个分支共同优化。之后,该文通过并行地预测缩小的文本区域图和完整的文本区域图来有效地区分相邻文本。其中前者可以保证不同的文本实例之间具有区分性,而后者能有效地指导网络优化。最后,为了提升文本检测的速度,该文提出一个快速且有效的后处理算法来生成文本边界框。实验结果表明:在相关数据集上,该文所提出的方法均实现了最好的效果,且比目前最好的方法在F-measure指标上最多提升了1.0%,并且可以实现将近实时的速度,充分证明了该方法的有效性和高效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号