共查询到20条相似文献,搜索用时 31 毫秒
1.
行人被严重遮挡导致无法提取有效特征是行人检测中出现漏检的一个主要原因。为了解决该问题,提出一种语义增强引导特征重建的遮挡行人检测算法。首先,利用空间和通道之间的依赖性设计了语义特征增强模块,建立全局上下文信息用以增强遮挡行人特征。其次,为关注行人的可见区域,通过自适应特征重建模块生成语义分割图,自适应调整通道的有效权重,增强行人和背景的可判别性。最后,通过多层次级联语义特征增强和自适应特征重建两个模块得到多层次特征图,融合多特征用以最终的行人解析。实验结果表明,该方法在具有挑战性的行人检测基准CityPersons和Caltech上,对严重遮挡目标的漏检率分别实现了47.28%和44.04%,在遮挡行人的检测上相较于其他方法具有较好的鲁棒性。 相似文献
2.
3.
针对红外成像系统盲元检测中,传统窗口全局阈值法阈值选取的局限性,结合盲元响应随机性特点,提出了一种基于超像素分割的盲元检测算法,给出了分割区域像素数及检测过程阈值设置方法;针对盲元校正问题,提出了一种基于结构相似度和空间邻域距离加权的相关像素插值的盲元校正算法,研究了不同加权方法对估计误差的影响.最后通过实验验证了算法的准确性和有效性,结果表明:本文提出的算法检测结果准确率高、漏检率低、虚警率低,校正后图像的RMSE低于邻域均值法(AN,Average Neighboring method)和最近邻替代(NN,Nearest Neighboring method)算法. 相似文献
4.
针对常规目标检测器检测水下目标时存在特征提取困难、目标漏检等问题,提出一种改进CenterNet的水下目标检测算法。首先,使用高分辨率人体姿态估计网络HRNet代替CenterNet模型中的Hourglass-104骨干网络,降低模型参数量,提升网络推理速度;其次,引入瓶颈注意力模块,在空间维度及通道维度进行特征增强,使网络关注重要目标特征信息,提高检测精度;最后,构建特征融合模块,融合网络内部丰富的语义信息和空间位置信息,并利用感受野模块增强融合后的特征,提高网络多尺度目标检测能力。在URPU水下目标检测数据集上进行实验,与CenterNet相比,所提算法的检测精度可达77.4%,提升1.5个百分点,检测速度为7 frame/s,提升35.6%,参数量为30.4 MB,压缩84.1%,同时与其他主流目标检测算法相比具有更高的检测精度,在水下目标检测任务上更具优势。 相似文献
5.
针对交通场景语义分割算法中存在的易融入周围背景的纤细条状目标分割不连续、模型参数量大等问题,提出一种融合多尺度深度卷积的轻量级Transformer交通场景语义分割算法。首先,基于深度卷积构建多尺度条形特征提取模块,在不同尺度下增强对纤细条状目标特征的表示能力。其次,在浅层网络中利用卷积归纳偏置特性设计空间细节辅助模块,以弥补深层空间细节信息的丢失来优化目标边缘分割。最后,提出基于Transformer-CNN框架的非对称编解码网络,编码器结合Transformer与CNN减少细节信息丢失并降低模型参数量;而解码器采用轻量级的多级特征融合设计来进一步建模全局上下文。所提算法在Cityscapes和Cam Vid交通场景公开数据集上分别取得的平均交并比为78.63%和81.06%,能够在交通场景语义分割中实现分割精度和模型大小之间的权衡,具备良好的应用前景。 相似文献
6.
针对传统桥梁裂缝检测算法检测精度低和现有的主流语义分割算法容易丢失裂缝图像细节信息、结果不连续等问题,提出了一种基于改进PSPNet的桥梁裂缝图像分割算法.首先使用无人机采集桥梁图像,通过图像增强处理得到桥梁裂缝数据集;其次通过带有扩张卷积的残差网络初步提取裂缝特征;接着将提取到的特征送入到空间位置自注意力模块(SPAM)和金字塔池化模块的串联结构中,使其能够在空间维度上获得丰富的上下文信息.实验结果表明,与现有的主流语义分割算法相比,所提算法得到的裂缝细节更加丰富,各项分割指标都有较为显著的提升,平均交并比达到84.31%,并能对细小桥梁裂缝进行准确、完整提取. 相似文献
7.
为提高单阶段实例分割的检测精度和改善小目标漏检、错检情况,提出一种基于YOLACT改进的YOLACTR算法。该算法首先利用CNN与Transformer相结合,设计一种新的头部预测网络,对特征进一步提取,并使用双向注意力来关联同一实例的掩码信息并区分不同实例之间的掩码特征,注重特征点周围的关联信息,使得检测框的预测更加准确;然后利用多级上采样和设计的CS注意力模块结合形成掩码分支,使其融入多种不同尺度信息,并利用CS注意力来关注不同的尺度信息。在MS COCO数据上,YOLACTR算法与YOLACT算法相比,其边框和掩码检测精度分别提升了7.4%和2.9%,在小目标检测上分别提升了18.9%和13.5%。实验表明,YOLACTR算法可以在多目标复杂场景下,提升检测和分割精度以及分类的准确度,改善小目标和重叠目标漏检、错检的问题。 相似文献
8.
针对高分辨率遥感图像,结合建筑物特征,提出水平集分层模型分割图像中的建筑物。首先,学习植被样本得到其在HSV空间中色调与饱和度的联合分布函数,利用阴影灰度方差通常小于非阴影区域的特点,将植被和阴影剔除以简化背景利于后续分割。然后,根据灰度级高低将一幅图像看作多层图像层,把建筑物的屋顶灰度特征和边缘特征融合到传统Chan-Vese(C-V)水平集算法中,分割出每层中灰度级相似的建筑物候选区域,从而将不同灰度级建筑物候选区域分层分割出来再整合。最后利用建筑物面积、建筑物与阴影位置关系等先验知识排除误分割,得到最终结果。实验表明:该方法能更好地分割出形状各异、各个灰度级的建筑物,甚至是灰度不均匀的建筑物,分割漏检率较传统C-V法降低了25%,虚检率降低了22%。有效减少了漏分割和过分割。 相似文献
9.
针对现有人体图像前景目标姿态变化、大小差异过大和边缘细节丢失等因素造成分割效果不佳的问题,提出了一种基于可变形有效感受野的人体前景分割算法.该算法将不同尺度的特征图进行融合,减少下采样过程中丢失的空间语义信息;同时结合可变有效感受野模块和边缘细化模块来捕获空间信息和语义信息,以适应算法对不同目标的有效感受野范围,并使有... 相似文献
10.
遮挡是行人检测任务中导致漏检发生的主要原因之一,对检测器性能造成了不利影响。为了增强检测器对于遮挡行人目标的检测能力,该文提出一种基于特征引导注意机制的单级行人检测方法。首先,设计一种特征引导注意模块,在保持特征通道间的关联性的同时保留了特征图的空间信息,引导模型关注遮挡目标可视区域;然后,通过注意模块融合浅层和深层特征,从而提取到行人的高层语义特征;最后,将行人检测作为一种高层语义特征检测问题,通过激活图的形式预测得到行人位置和尺度,并生成最终的预测边界框,避免了基于先验框的预测方式所带来的额外参数设置。所提方法在CityPersons数据集上进行了测试,并在Caltech数据集上进行了跨数据集实验。结果表明该方法对于遮挡目标检测准确度优于其他对比算法。同时该方法实现了较快的检测速度,取得了检测准确度和速度的平衡。
相似文献11.
针对复杂场景下合成孔径雷达图像船舶检测中易产生漏检的问题,本文提出了一种基于改进YOLOv5的复杂场景下SAR图像船舶检测算法。该算法首先将由通道注意力和空间注意力共同组成的自适应注意力模块引入YOLOv5的特征提取网络中,通过将特征向量筛选加权后,使重要的目标特征占有更大的网络处理比重,以此增强网络对目标区域的特征学习能力。然后根据SAR图像特性优化了检测模型的损失函数,提升了预测框的置信度,最终降低了复杂场景区域的目标漏检率。实验表明,相比传统YOLOv5算法,本文算法显著提升了召回率。对于复杂场景下的SAR图像船舶目标检测,平均准确率达到了79.8%,相比于传统YOLOv5算法和Faster R-CNN算法分别提高了26.1%和17.3%。 相似文献
12.
为解决在车道线磨损、被遮挡以及光照变化等复杂场景中车道线检测精度较低的问题,提出了一种基于编码-解码网络的车道线检测算法。首先,对Resnet18网络进行改进和优化,组成编码网络;然后,结合ASPP模块和金字塔注意力机制组成解码网络,对图像进行像素级的语义分割,识别并区分车道线;最后基于自适应拟合算法拟合车道线。在Tusimple公开数据集上进行训练和测试,结果表明,该算法的准确率、检测速率、误检率和漏检率分别为:96.45%、35帧/秒、2.59%、1.41%,在复杂场景下的检测精度较高,鲁棒性较强。 相似文献
13.
《无线电工程》2019,(7):575-580
传统分割方法只能对目标物体进行像素及语义信息解读并不能确定出目标的相对位置信息,另外室内环境复杂、光线不均匀、物体尺度较多且差异较大,尤其是对于小目标的分割效果不好。提出了基于全卷积神经网络的多任务语义分割算法,通过在检测框架添加用于预测与现有分支并行的对象像素级分割,实现了图像像素分割与目标物体检测相结合的多任务分割技术。加入RoI Align方法去除了量化操作,使原图中的像素和特征图中的像素完全对齐,消除了像素偏差、提高了精度,改进的梯度优化算法加速了模型收敛。通过mAP指标评估算法在公共数据集和实际应用场景中的有效性和广泛性,实验结果证明该方法的准确率明显高于传统的单任务分割算法。 相似文献
14.
作为计算机视觉领域的热门方向之一,运动目标检测具有很高的理论研究价值和很广的实际应用空间。传统视觉背景提取器(Visual Background Extractor, ViBe)目标检测算法实时性高且内存消耗低,但存在受光照影响大、不能有效抑制拖影区域、无法消除阴影以及检测图像内部空洞等问题。鉴于以上不足,提出3点针对性改进策略:(1)优化算法核心参数。筛选最优值来替换以往经验值,从而提高算法性能,增强算法适应性。(2)引入光强检测算子。阈值半径随光强变化自适应,避免因光照变化而出现拖影区域。(3)增加阴影检测模型。利用感兴趣区域(Region of Interest, ROI)像素分布确定阴影位置,结合运动目标自身特性分割出目标区与阴影区。仿真实验结果证明:改进型ViBe算法不仅能够完整地检测、抓取运动目标,而且还可以有效地抑制拖影区域并消除目标阴影。 相似文献
15.
基于深度学习的语义分割算法可以实现安检违禁品自动识别,并获得违禁品的位置、类别及形状信息。但传统的语义分割算法在面对违禁品尺寸不一且目标多样的识别任务时表现较差。针对该问题,本文提出了一种基于语义分割技术的多目标违禁品识别算法。编码阶段,设计使用空洞空间金字塔卷积模块(Atrous Spatial Pyramid Convolution Block, ASPC),提升网络对于特征图多尺度信息的挖掘能力。同时引入注意力机制,对ASPC模块的特征提取过程进行监督,进一步提升模块的特征提取能力。解码阶段,受U-Net模型启发,采用逐级上采样操作,同时加入1×1卷积实现通道降维,减少计算量,提升模型运行速度。实验结果显示,本文提出的算法在多目标违禁品识别任务中表现良好,平均交并比(mIoU)得分78.62,处理单张图片用时(Time)68ms。 相似文献
16.
现有以YOLOv5为代表的目标检测技术,存在骨干网络对特征提取不充分以及颈部层未高效融合浅层位置信息和深层高级语义信息等问题,这会导致检测精度较低,小目标误检、漏检。针对此问题,从兼顾实时性与检测精度出发,对YOLOv5进行改进,提出一种改进网络YOLOv5-CBGhost。首先在骨干网络中引入Ghost模块对模型进行轻量化处理,引入CA模块来更好地获得全局感受野,提高模型获取目标位置的准确度;然后借鉴双向加权特征金字塔网络,对原PAN结构进行改进,有效减少了特征冗余以及参数量,并通过跨层加权连接融合更多特征,提高了模型的目标检测精度;最后,增加多检测头以获取图片更丰富的高层语义信息,有效增加了检测精度。通过在PASCAL VOC2007+2012数据集上实验,YOLOv5-CBGhost的目标精度达到81.8%,相较于YOLOv5s,提高了3.0%,计算量减少42.5%,模型大小减少3.5%。 相似文献
17.
18.
19.
20.
针对现有安全帽佩戴检测算法在复杂场景下存在密集目标检测难度大、小目标误检和漏检等问题,提出一种基于改进YOLOv5的安全帽佩戴检测算法。该算法主要在以下三个方面进行优化:通过在主干网络添加卷积块注意力模块(CBAM)来提取多个尺度的全局特征信息,使模型在通道和空间上更关注主要信息,得到更丰富的高层语义信息;将特征融合网络中的路径聚合网络(PAN)改进为加权双向特征金字塔网络(BiFPN),实现特征信息双向跨尺度连接和加权融合;将边界框回归损失函数改进为EIOU损失函数,加快边界框收敛速度和提高目标识别准确率。在自制的安全帽佩戴检测数据集上进行实验验证的结果表明:改进后的算法平均准确率(mAP)达到92.8%,相较于YOLOv5算法,改进后的算法在目标检测精确度和召回率上分别提升2.4%和1.8%。 相似文献