首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
针对山火烟雾这类柔性目标图像存在的形状不固定所导致的识别精度低、泛化性差等问题,提出了一个基于YOLO的改进深度卷积神经网络(DCNN)识别方法.该方法通过数据增强算法优化训练网络;利用GIoU_Loss损失函数替换L2 Loss函数,大幅降低损失值;运用空间金字塔池化,将多尺度特征进行融合,增加网络的感受野,提高检测精度.实验结果表明,改进方法相对于原YOLO算法查全率提升了1.3%,查准率提高了2.1%.  相似文献   

2.
王凤随      陈金刚      王启胜      刘芙蓉     《智能系统学报》2022,17(2):276-285
识别多尺度目标是检测任务中的一项挑战,针对检测中的多尺度问题,提出自适应上下文特征的多尺度目标检测算法。针对不同尺度的目标需要不同大小感受野特征进行识别的问题,构建了一种多感受野特征提取网络,通过多分支并行空洞卷积,从高层语义特征中挖掘标签中的上下文信息;针对不同尺度目标的语义特征出现在不同分辨率特征图中的问题,基于改进的通道注意力机制,提出自适应的特征融合网络,通过学习不同分辨率特征图之间的相关性,在全局语义特征中融合局部位置特征;利用不同尺度的特征图识别不同尺度的物体。在PASCAL VOC数据集上对本文算法进行验证,本文方法的检测精度达到了85.74%,相较于Faster R-CNN检测精度提升约8.7%,相较于基线检测算法YOLOv3+提升约2.06%。  相似文献   

3.
郭文  李冬  袁飞 《图学学报》2022,43(6):1124-1133
在低质量点云人脸数据集上,判别性特征的提取和模型对噪声的鲁棒性是解决点云人脸识别问题 的关键。针对现有轻量点云人脸识别算法不能充分提取判别性特征和数据集中存在大量噪声而影响模型训练的问 题,设计轻量高效的网络模型,提出了基于多尺度注意力融合和抗噪声的自适应损失函数的点云人脸识别算法。 首先通过不同卷积模块获得不同感受野大小的特征图。然后进行多尺度的注意力特征提取,并使用高层的注意力 权重来引导低层注意力权重的生成,最后进行通道融合得到多尺度融合的特征,提升了模型捕获人脸细节特征的 能力。其次,根据低质量点云人脸图像的噪声信息特点,设计了一种新颖的抗噪声的自适应损失函数(anti-noise adaptive loss),以应对数据集大量噪声对模型训练过程中可能造成的负面影响,提升模型的鲁棒性和泛化能力。 在开源数据集 Lock3DFace 和本文提出的 KinectFaces 数据集上的实验结果表明,与当前的主流算法相比该算法模 型在低质量点云人脸识别任务中具有更好的识别效果。  相似文献   

4.
行人重识别通常删除特征提取网络中的最后一个空间下采样操作,以增加最后输出特征图的分辨率,保留更多的细粒度特征.然而,这种操作会大幅减小神经网络的感受野,而更大的感受野可以为行人重识别提供更多的上下文信息.同时,在实际的视觉皮层中,相同区域的神经元的感受野是不同的,但当前行人重识别网络的设计大多忽视了这一点.为了解决上述问题,提出一种新颖的自适应感受野网络.网络的设计受启发于生物的视觉系统,通过在多分支网络上设置不同大小的感受野,结合注意力机制让网络自行选择合适的感受野特征,从而实现网络感受野的自适应,并且采用分组卷积使得自适应感受野模块更加轻量级.同时在各个分支利用空洞卷积增大感受野,补偿删除最后下采样操作所减少的网络感受野.在公开的大规模数据集上进行实验,实验结果表明,所提出的算法相比于基线方法有显著的提升,当使用ResNet-50作为特征提取网络时,在DukeMTMC-reID、Market-1501数据集上的Rank-1和mAP分别达到89.2%和76.0%、95.2%和87.2%.与现有方法相比,所提出算法在精度上有明显的提升.  相似文献   

5.
针对现有算法因视网膜细小血管分割不足和抗噪声能力弱导致其分割精度低等问题,提出一种融合多层空间注意的U型视网膜血管分割算法.首先,在编码和解码部分采用特征增强残差模块,引入通道注意机制提高网络模型对血管特征的分割能力.其次,在U型网络的底部引入密集空洞卷积模块,增大感受野提取血管多尺度特征.最后,在跳跃连接阶段使用三端空间注意模块进行特征自适应细化,有效抑制特征图中的噪声.在DRIVE和STARE公开眼底图像数据集上验证本文算法,实验结果表明,所提算法准确率分别达到了0.9643和0.9683,灵敏度分别达到了0.8329和0.8224,AUC值分别达到了0.9861和0.9897.其性能指标整体优于现有先进算法.  相似文献   

6.
针对人群计数方法中存在的尺度变化和多层级特征融合不佳的问题,基于U-Net的编码器-解码器网络结构,提出一种自适应特征融合网络,来进行精准的人群计数。提出自适应特征融合模块,根据解码器分支的需要,高效地聚合编码器分支提取的高层语义信息和底层的边缘信息;提出自适应上下文信息提取器,从不同感受野下提取多尺度的上下文信息并自适应加权融合,提高网络对于人头尺度变化的鲁棒性。在ShanghaiTech、UCF-CC-50和UCG-QNRF上的实验表明,与目前主流的人群计数算法相比,该算法具有更强的准确性和鲁棒性。  相似文献   

7.
针对残差块中特征图直接相加无法反映特征间相关性以及特征融合阶段存在信息损失的问题,提出一种融合自适应加权模块的目标检测算法.该算法对YOLOv4的主干网络和颈部网络进行改进,设计了一种自适应加权模块,对输入的2个特征图进行通道压缩并提取特征信息,从提取的信息中获取空间权重,最后将空间权重赋予输入特征图来建立其之间的相关性.在特征融合阶段增加跳跃连接,补充特征融合过程中的信息损失.实验结果表明,该算法能够有效地提高目标的精度,在PASCALVOC数据集与KITTI数据集上的精度较YOLOv4算法分别提高了0.90个百分点与0.89个百分点.  相似文献   

8.
基于特征金字塔网络的目标检测算法没有充分考虑不同目标间的尺度差异以及跨层特征融合过程中高频信息损失问题,使网络无法充分融合全局多尺度信息,导致检测效果不佳.针对这些问题,提出了尺度增强特征金字塔网络.该方法对特征金字塔网络的侧向连接和跨层特征融合方式进行了改进,设计具有动态感受野的多尺度卷积组作为侧向连接来充分提取每一个目标的特征信息,引入基于注意力机制的高频信息增强模块来促进高层特征与底层特征融合.基于MS COCO数据集的实验结果表明,该方法能有效提高各尺度目标的检测精度,整体性能优于现有方法.  相似文献   

9.
为了解决小目标检测在实际应用中的高漏检率、低准确率、低召回率等问题,提出一种基于感受野扩增特征融合的小目标检测算法.首先,对全卷积单阶段目标检测算法(fully convolutional one-stage object detection, FCOS)基础网络特征提取部分增加感受野扩增模块,改善基础网络ResNet-50特征信息提取较少、浅层特征层信息利用率偏低等问题;其次,在特征金字塔部分利用门控思想筛选信息融合,降低无效信息融合的干扰;最后,对7个特征层增加注意力机制模块,提升目标定位精度和分类精度.在COCO2017数据集上的实验结果表明,该算法比传统FCOS算法的检测精度提升2.4%.其中,小目标检测精度提升3.2%,具有更好的检测效果.  相似文献   

10.
针对太阳能电池某些缺陷图像样本较少的问题,提出融合多感受野与注意力的太阳能电池缺陷生成算法,并将生成图像用于缺陷检测模型的训练.首先,构造双判别器的生成对抗网络,全局判别器与局部判别器分别关注图像中的全局信息与局部细节.然后,设计多感受野特征提取,与改进的注意力模块融合为多感受野注意力模块,用于设计生成器和判别器的网络结构.最后,在损失函数中加入结构相似性损失与峰值信噪比损失,用于训练生成器,并对生成图像进行均值滤波处理.在太阳能电池电致发光数据集上对3种不同尺度的缺陷图像进行生成实验,结果表明,3种缺陷生成图像的结构相似性指标与峰值信噪比指标都较高.此外,在利用生成的缺陷图像进行YOLOv7检测模型的训练后,3种缺陷的平均精度均值较高.  相似文献   

11.
针对基于深度学习的动态手势识别方法网络规模庞大、提取的时空特征尺度单一、有效特征的提取能力不足等问题,提出了一种深度网络框架。首先,使用时域多尺度信息融合的时空卷积模块改进3D残差网络结构,大幅度缩小网络规模,获得多种尺度的时空感受野特征;其次,引入一种全局信息同步的时空特征通道注意力机制,使用极少量参数构建特征图通道之间的全局依赖关系,使模型更加高效地获取动态手势的关键特征。在自建手势数据集SHC和公开手势数据集SKIG上的实验结果显示,提出的手势识别方法参数量更少且多尺度时空特征提取能力强,识别率高于目前的主流算法。  相似文献   

12.
针对遥感影像中由于道路信息错综复杂,导致道路提取不完整、精确度低等问题,提出一种新型遥感影像道路提取方法。融合多尺度特征改善道路提取的整体效果,基于深度残差网络设计混合空洞卷积,并通过定义卷积核各值的间距增大特征提取感受野,从而丰富多尺度特征融合模块中的浅层道路语义信息。在编码端提取特征后,利用权重分布的方法匹配感受野尺度,使用不同层级间的特征对全局先验信息进行表征,提高多尺度融合特征获取浅层道路语义信息的准确性,并将改进的多孔空间金字塔池化模块融入到深度残差网络中,挖掘并深度聚合道路浅层次和深层次的语义信息。在两种高分辨率遥感数据集Cheng_Data_Roads和Zimbabwe_Data_Roads上的实验结果表明,所提方法的F1值和MIoU值分别为91.16%和83.63%,准确率、召回率等评价指标均明显优于U-net、ResUnet、D-Linknet等语义分割方法。  相似文献   

13.
针对单模态特征条件下监控视频的场景识别精度与鲁棒性不高的问题,提出一种基于特征融合的半监督学习场景识别系统。系统模型首先通过卷积神经网络预训练模型分别提取视频帧与音频的场景描述特征;然后针对场景识别的特点进行视频级特征融合;接着通过深度信念网络进行无监督训练,并通过加入相对熵正则化项代价函数进行有监督调优;最后对模型分类效果进行了仿真分析。仿真结果表明,上述模型可有效提升监控场景分类精度,满足针对海量监控视频进行自动化结构化分析等公安业务需求。  相似文献   

14.
刘辉  曾鹏飞 《控制与决策》2021,36(9):2170-2178
现有的基于深度学习的自然场景文本检测方法一般采用大型深度神经网络作为主干网络进行特征提取,虽然效果显著但检测模型十分庞大,检测效率较低,若直接将主干网络换成轻量型网络则不能提取出足够的特征信息,直接导致检测效果大幅降低.为了降低文本检测模型的规模以及更为高效地检测文本,提出基于双分支特征融合的场景文本检测方法,在采用相对轻量级的主干网络EfficientNet-b3的基础上,使用双路分支进行特征融合进而检测场景文本.一路分支使用特征金字塔网络,融合不同层级的特征;另一路分支使用空洞卷积空间金字塔池化结构,扩大感受野,然后融合两个分支的特征,在小幅增加计算量的同时获取更多的特征,弥补小型网络提取特征不足的问题.在3个公开数据集上的实验结果显示,所提出方法在保持较高检测水平的情况下,可以大幅度降低模型的参数量,大幅度提升检测速度.  相似文献   

15.
卷积神经网络因其对图像识别准确率高而在图像检索领域备受青睐,但处理大规模数据集时,基于卷积神经网络提取的深度特征维度高,容易引发"维度灾难".针对图像检索中深度特征维度高的问题,提出一种基于自适应融合网络特征提取与哈希特征降维的图像检索算法.由于传统哈希处理高维特征复杂度高,因此本文在卷积神经网络中加入自适应融合模块对特征进行重新整合,增强特征表征能力的同时降低特征维度;然后应用稀疏化优化算法对深度特征进行第2次降维,并通过映射获得精简的哈希码;最后,实验以Inception网络作为基础模型,在数据集CIFAR-10和ImageNet上进行了丰富的实验.实验结果表明,该算法能有效提高图像检索效率.  相似文献   

16.
针对动态复杂场景下的操作动作识别,提出一种基于手势特征融合的动作识别框架,该框架主要包含RGB视频特征提取模块、手势特征提取模块与动作分类模块。其中RGB视频特征提取模块主要使用I3D网络提取RGB视频的时间和空间特征;手势特征提取模块利用Mask R-CNN网络提取操作者手势特征;动作分类模块融合上述特征,并输入到分类器中进行分类。在EPIC-Kitchens数据集上,提出的方法识别抓取手势的准确性高达89.63%,识别综合动作的准确度达到了74.67%。  相似文献   

17.
目的 遥感图像中存在大小、形态不一的目标,增加了目标分割任务的困难性。感受野代表了特征图中每个像素对应输入图像的区域,若感受野与目标形状的契合度较高,则特征图中包含的目标特征更加完整,有利于分割。在现有的分割方法中,通常采用的是正方形的感受野,而遥感图像中目标形状多变,导致感受野无法较好地契合目标形状,在提取目标特征时会引入过多的无用特征,从而影响分割精度。为此,本文提出基于自适应感受野机制的遥感图像分割模型。方法 在编码—解码网络结构的基础上,引入自适应感受野机制。首先在编码器上提取不同大小和宽高比的感受野特征,然后在特征融合时使用通道注意力模块自适应地获取通道权重,通过加权强化与目标形状契合度高的感受野的特征,弱化与目标形状契合度低的感受野的特征,在保留目标特征的同时减少背景特征的干扰,进而提升模型的分割精度。结果 在Inria Aerial Image Labeling数据集与DeepGlobe Road Extraction数据集上进行实验并与相关方法比较,在两个数据集上的平均交并比分别为76.1%和61.9%,平均F1值分别为86.5%和76.5%。结论 本文模型能够提取不同形状感受野的特征,并自适应地获取通道权重,使模型能提取更加完整的目标特征,从而提升目标分割效果。  相似文献   

18.
针对医学磁共振成像(MRI)过程中由于噪声、成像技术和成像原理等干扰因素引起的图像细节丢失、纹理不清晰等问题,提出了基于多感受野的生成对抗网络医学MRI影像超分辨率重建算法.首先,利用多感受野特征提取块获取不同感受野下图像的全局特征信息,为避免感受野过小或过大导致图像的细节纹理丢失,将每组特征分为两组,其中一组用于反馈...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号