首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
针对农作物病害图像识别模型存在参数量较大内存占用较多、识别准确率不高及训练速度慢等问题,提出了融合注意力模块的多尺度卷积网络叶片病害图像识别模型。该网络模型基于残差网络模块,利用多尺度卷积取代了传统的单尺度卷积,使得网络加宽以获取更多的特征信息,避免网络堆叠过深引起的过拟合现象;同时为了加快模型训练速度,采用深度可分离卷积代替传统卷积减少模型参数量;将注意力机制引入到残差网络中,增强了模型的关键特征信息的提取能力,从而提高了模型的识别精度。通过对试验数据集进行对比试验,改进网络模型的识别准确率达到99.48%并且模型参数量仅有19.06 MB,试验结果表明所提出的方法能有效地提高模型的识别性能并降低模型参数量,为实现低成本终端运行奠定基础。  相似文献   

2.
人脸表情是人类内心情绪最真实最直观的表达方式之一,不同的表情之间具有细微的类间差异信息。因此,提取表征能力较强的特征成为表情识别的关键问题。为提取较为高级的语义特征,在残差网络(ResNet)的基础上提出一种注意力金字塔卷积残差网络模型(APRNET50)。该模型融合金字塔卷积模块、通道注意力和空间注意力。首先用金字塔卷积提取图像的细节特征信息,然后对所提特征在通道和空间维度上分配权重,按权重大小定位显著区域,最后通过全连接层构建分类器对表情进行分类。以端到端的方式进行训练,使得所提网络模型更适合于精细的面部表情分类。实验结果表明,在FER2013和CK+数据集上识别准确率可以达到73.001%和94.949%,与现有的方法相比识别准确率分别提高了2.091个百分点和0.279个百分点,达到了具有相对竞争力的效果。  相似文献   

3.
针对在人脸表情识别中普通卷积神经网络难以提取有效特征、网络模型参数复杂等问题,提出了一种多尺度融合注意力机制网络(multi-scale integrated attention network,MIANet)。为了同时增加网络的宽度和深度又避免冗余计算,在网络中引入Inception结构,用于提取图像的多尺度特征信息。使用高效通道注意机制(efficient channel attention,ECA),强调与面部表情相关的区域抑制不相关的背景区域,提高重要面部特征的表达能力。在卷积层中采用深度可分离卷积,减少网络参数,防止过拟合。使用提出的方法在公开数据集FER-2013和CK+上进行实验,分别取得了95.76%和72.28%的准确率。实验结果表明,该方法识别效果较好,泛化能力较强,在人脸表情识别中对网络结构设置和参数配置方面具有一定的参考价值。  相似文献   

4.
针对固体氧化物燃料电池(SOFC)燃烧室燃烧状态识别问题,提出一种基于注意力机制与图像特征金字塔的SOFC燃烧室燃烧状态识别方法。该方法使用加权分布的自适应伽马矫正算法(AGCWD)进行数据前处理,对数据进行标准化;利用两个附加1×1卷积的全连接改进了压缩—激励结构,并结合空间注意力,提出了一种混合注意力结构,提升了网络特征提取能力;为增强特征的多尺度信息交流能力,使用双向计算和多尺度融合,提出了多尺度双向融合金字塔。实验表明,所提方法在参数量为3.98 M、浮点运算数(FLOPs)为397 M的前提下,识别准确率达到99.22%,能够有效识别SOFC燃烧室燃烧状态。  相似文献   

5.
针对目前卷积神经网络种子分选方法存在识别精度不高、模型参数量大、推理速度慢且难于部署等问题,提出了基于轻量级金字塔空洞卷积网络的种子分选方法;该网络提出了残差空间金字塔模块,利用不同扩张率的空洞卷积扩大感受野,更有效地提取多尺度特征;再结合深度可分离卷积技术减少模型参数量和计算复杂度;在网络结构中引入轻量级注意力机制模块,利用局部跨通道交互方式关注重要的信息,提高种子关键特征提取能力;实验结果表明,提出网络参数量仅为0.13 M,在玉米和红芸豆数据集上准确率高达96.00%和97.38%,在NVIDIA Quadro板卡上识别单张图片时间仅为4.51 ms,均优于主流轻量级网络MobileNetv2、Shufflenetv2和PPLC-Net等,可以满足工业现场实时识别的要求。  相似文献   

6.
在驾驶场景中,针对行人间的遮挡和尺度多变现象导致的检测精度较低、模型参数量过大和难以部署到移动端等问题,提出了一种基于YOLOv5s模型的轻量级实时行人检测模型LPD-YOLO。首先,在特征提取部分采用MES Net替换原主干网络,并在主干网络中嵌入注意力模块SA,增强网络特征提取能力;其次,在特征融合部分采用DS-ASFF结构改进原PANet,使其充分融合不同尺寸的特征图;然后,采用GS卷积代替特征融合网络中的部分标准卷积,在不影响精度的条件下,进一步减少模型参数量和计算量;最后,在预测部分使用OTA标签分配策略结合α-IOU改进原损失函数,加速模型收敛。实验结果表明,该模型相较于YOLOv5s,参数量减少了81.2%,浮点运算量降低了46.3%,模型大小减小了75.8%,检测精度提高了3.3%。单幅图像检测速度达到了13.2 ms,更好地满足了驾驶场景下密集行人的实时检测要求。  相似文献   

7.
基于单尺度二维、三维卷积的脑电情感识别算法存在原始信号映射到高维特征矩阵过程中信息易丢失、模型参数量大、提取特征相对单一等问题。提出多尺度金字塔交互注意力残差网络(MPIAResnet)。利用多尺度一维卷积核直接提取原始脑电信号的多尺度空间特征,将标准卷积替换为分组卷积,相比二维、三维卷积具有更少的参数量,同时利用通道交互注意力机制优化特征提取过程。在此基础上,与双向GRU(BiGRU)融合组成MPIAResnetBiGRU网络,进一步提取脑电信号的上下文语义信息,实现脑电信号的时空特征融合。基于公开数据集DEAP的实验结果表明:在受试者依赖实验中,该模型Valence和Arousal维度识别准确率达到97.60%和98.15%,相比单尺度模型提升8.56和8.36个百分点;在小批量训练集实验中,当训练集占比为30%时,测试集准确率依然可以保持在90%以上;在分频带实验中,2个高频带信号识别准确率优于低频带信号,证明了模型的有效性;而在受试者全部参与实验中,该模型的识别准确率也均优于对比方法。  相似文献   

8.
针对现有煤矿工人安全帽佩戴检测算法存在检测精度与速度难以取得较好平衡的问题,以YOLOv4模型为基础,提出了一种融合坐标注意力与多尺度的轻量级模型M-YOLO,并将其用于安全帽佩戴检测。该模型使用融入混洗坐标注意力模块的轻量化特征提取网络S-MobileNetV2替换YOLOv4的特征提取网络CSPDarknet53,在减少相关参数量的前提下,有效改善了特征之间的联系;将原有空间金字塔池化结构中的并行连接方式改为串行连接,有效提高了计算效率;对特征融合网络进行改进,引入具有高分辨率、多细节纹理信息的浅层特征,以有效加强对检测目标特征的提取,并将原有Neck结构中的部分卷积修改为深度可分离卷积,在保证检测精度的前提下进一步降低了模型的参数量和计算量。实验结果表明,与YOLOv4模型相比,M-YOLO模型的平均精度均值仅降低了0.84%,但计算量、参数量、模型大小分别减小了74.5%,72.8%,81.6%,检测速度提高了53.4%;相较于其他模型,M-YOLO模型在准确率和实时性方面取得了良好的平衡,满足在智能视频监控终端上嵌入式加载和部署的需求。  相似文献   

9.
针对人脸表情识别在特征提取时容易丢失大量有用的特征信息, 无法提取更加全面的人脸表情特征的问题, 提出了一种多尺度特征融合网络模型(DS-EfficientNet). 该模型包括深层网络和浅层网络两部分, 浅层网络用来提取面部表情的细节纹理信息, 深层网络提取表情的全局信息. 并在浅层网络中加入注意力机制, 增强对浅层细节信息的提取能力. 最终在通道上进行特征融合, 融合之后网络可以提取更加丰富的人脸表情信息. 为了减少模型参数, 提高模型的泛化性能, 将全连接层替换为全局平均池化层, 加入批归一化. 本文提出的方法在Fer2013和CK+上进行实验, 识别准确率达到了73.47%和98.84%. 实验证明该方法可以提取人脸更加丰富的表情信息, 模型具有更强的泛化能力.  相似文献   

10.
针对传统目标检测方法在对电子元器件进行缺陷检测时存在参数量大、检测效率低的问题,提出了一种基于轻量化YOLOX检测网络的目标检测方法。首先,使用深度可分离卷积对主干网络实现轻量化处理,减少参数量的同时提高检测速度;其次,构建基于空间金字塔的通道注意力模型,对不同尺度特征进行筛选融合,加强小尺寸缺陷的特征权重;在特征融合的采样过程中,加入高效通道注意力,在略微增加参数量的情况下,提升检测精度;最后,采用EIoU损失函数优化IoU损失函数,并使用余弦退火算法来使模型达到最佳检测效果。采用自制的电子元器件外观缺陷数据集进行实验,所提方法的平均检测精度达到98.96%,每幅图像的检测时间大约为0.09 s,与原YOLOX网络相比检测速度提高了一倍,模型大小缩小了约60%,并且在PCB瑕疵公共数据集上进行了验证,结果表明所提方法实现了目标缺陷的快速检测。  相似文献   

11.
针对目前应用到织物疵点检测的网络模型中存在的两阶段算法检测速度慢、一阶段算法检测精度低的问题,提出了一种改进YOLOv5的织物疵点检测算法。针对织物疵点大小不一的问题,对K-mean算法的聚类距离标准进行修改,重新计算先验框大小;对网络Neck层标准卷积(standard convolution,SC)进行改进,将深度分离卷积(depth separation convolution,DSC)与标准卷积结合,减少网络层参数量,同时保持网络的特征提取能力;在特征融合阶段引入坐标注意力机制(coordinate attention,CA),使网络能够捕捉各通道之间联系的同时保留目标的精确定位信息,加强网络的特征提取和定位能力;使用加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN)中的方法,对特征金字塔模块进行修改,实现简单快速的多尺度特征融合。在数据集上进行训练,结果表明,改进的YOLOv5模型的mAP值可达到97.4%,相比于原网络精度提高了2.8个百分点,满足了织物疵点检测的要求。  相似文献   

12.
婴儿面部表情智能化识别, 可辅助看护人员更好地关注婴儿的身心健康. 由于婴儿面部线条流畅且五官锐感偏弱导致面部表情类间相似性高于成人, 为了解决类间相似性高的问题, 提出多尺度信息融合网络. 该网络整体分为2个阶段: 在第1阶段使用融合模块在空间域与通道域双重维度下融合局部特征与全局特征, 增强特征的表达能力; 在第2阶段采用自适应深度中心损失, 利用注意力机制估计融合特征的权重用以指导中心损失, 促进婴儿表情特征的类内紧凑和类间分离. 实验结果表明, 多尺度信息融合网络在婴儿面部表情数据集中识别准确率达到95.46%, 在AUC、召回率和F1得分3个评价指标上分别达到99.07%、95.88%和95.89%, 与现有面部表情识别网络相比, 识别效果最优. 将多尺度信息融合网络在公开面部表情数据集上进行泛化性实验, 准确率达到89.87%.  相似文献   

13.
针对传统卷积神经网络在人脸表情识别过程中存在有效特征提取针对性不强、识别准确率不高的问题,提出一种基于多尺度特征注意力机制的人脸表情识别方法。用两层卷积层提取浅层特征信息;在Inception结构基础上并行加入空洞卷积,用来提取人脸表情的多尺度特征信息;引入通道注意力机制,提升模型对重要特征信息的表示能力;最后,将得到的特征输入Softmax层进行分类。通过在公开数据集FER2013和CK+上进行仿真实验,分别取得了68.8%和96.04%的识别准确率,结果表明该方法相比许多经典算法有更好的识别效果。  相似文献   

14.
为解决板坯喷涂面标实时识别问题,构建文本检测和识别模型。改进可微二值化算法网络,引入高效通道注意力模块SENet,进行自适应空间特征融合(ASFF),增强特征金字塔预测多尺度目标的能力。识别模型改进卷积递归神经网络的VGG网络,将卷积与循环神经网络联合训练。实验结果表明,检测模型的精确率、召回率和调和平均值达到93.30%、86.45%、89.85%,提升显著;识别模型平均准确率达到86.01%,精度提升4.99%。模型满足实时与准确性要求。  相似文献   

15.
目的 针对口罩遮挡的人脸姿态分类新需求,为了提高基于卷积神经网络的人脸姿态分类效率和准确率,提出了一个轻量级卷积神经网络用于口罩人脸姿态分类。方法 本文设计的轻量级卷积神经网络的核心为双尺度可分离注意力卷积单元。该卷积单元由3×3和5×5两个尺度的深度可分离卷积并联而成,并且将卷积块注意力模块(convolutional block attention module,CBAM)的空间注意力模块(spatial attention module,SAM)和通道注意力模块(channel attention module,CAM)分别嵌入深度(depthwise,DW)卷积和点(pointwise,PW)卷积中,针对性地对DW卷积及PW卷积的特征图进行调整。同时对SAM模块补充1×1的点卷积挤压结果增强其对空间信息的利用,形成更加有效的注意力图。在保证模型性能的前提下,控制构建网络的卷积单元通道数和单元数,并丢弃全连接层,采用卷积层替代,进一步轻量化网络模型。结果 实验结果表明,本文模型的准确率较未改进SAM模块分离嵌入CBAM的模型、标准方式嵌入CBAM的模型和未嵌入注意力模块的模型分别提升了2.86%、6.41% 和12.16%。采用双尺度卷积核丰富特征,在有限的卷积单元内增强特征提取能力。与经典卷积神经网络对比,本文设计的模型仅有1.02 MB的参数量和24.18 MB的每秒浮点运算次数(floating-point operations per second,FLOPs),大幅轻量化了模型并能达到98.57%的准确率。结论 本文设计了一个轻量高效的卷积单元构建网络模型,该模型具有较高的准确率和较低的参数量及计算复杂度,提高了口罩人脸姿态分类模型的效率和准确率。  相似文献   

16.
倪春晓 《信息与电脑》2023,(11):208-210
本研究为了解决传统面部表情识别模型准确率较低的问题,基于深度卷积神经网络(Deep Convolutional Neural Network,DCNN)提出一种新的改进神经网络模型,与传统模型相对比,本模型将其核心的卷积层替换成了深度可分离卷积层,同时搭配卷积残差块的使用,使网络能够有效减少参数的情况下,能够提取多尺度上的特征信息,从而有效地保留了细节特征。最后通过仿真对比,证明本研究提出的DCNN网络具有突出的性能特点,适合用于面部表情识别任务。  相似文献   

17.
YOLOv4计算复杂度高、空间金字塔池化模块仅一次增强特征融合网络的深层区域特征图的表征能力、检测头网络的特征图难以突出重要通道特征;针对以上问题,提出一种基于注意力机制和多空间金字塔池化的实时目标检测算法;该算法采用多空间金字塔池化,提取局部特征和全局特征,融合多重感受野,加强特征融合网络的浅、中、深层特征图的表征能力;引入压缩激励通道注意力机制,建模通道间的相关性,自适应调整特征图各个通道的权重,从而使网络更加关注重要特征;特征融合和检测头网络中使用深度可分离卷积,减少了网络参数量;实验结果表明,所提算法的均值平均精度均高于其他七种主流对比算法;与YOLOv4相比,参数量、模型大小分别减少了27.85 M和106.25 MB,所提算法在降低复杂度的同时,提高了检测准确度;且该算法的检测速率达到33.70 帧/秒,满足实时性要求。  相似文献   

18.
近年来基于深度学习的人脸表情识别技术已取得很大进展,但对于表情特征的多尺度提取,以及在不受约束的现实场景中进行面部表情识别仍然是具有挑战性的工作。为解决此问题,提出一种金字塔卷积神经网络与注意力机制结合的表情识别方法。对于初始的一张人脸表情图像,将其按照区域采样裁剪成多张子图像,将原图像和子图像输入到金字塔卷积神经网络进行多尺度特征提取,将提取到的特征图输入到全局注意力模块,给每一张图像分配一个权重,从而得到有重要特征信息的图像,将子图像和原始图像的特征进行加权求和,得到新的含有注意力信息的全局特征,最终进行表情识别分类。在CK+、RAF-DB、AffectNet三个公开表情数据集上分别取得了98.46%、87.34%、60.45%的准确率,提高了表情的识别精度。  相似文献   

19.
为解决人脸表情识别时存在的参数量大、速度低和表情区域特征表示力不足的问题,提出一种基于深度二值卷积网络的人脸表情识别方法.首先设计一个二值卷积与传统卷积并行运算的轻量化网络模型BRNet,以降低网络模型参数的复杂度,从而提升识别的速度;然后构建一个动态半径策略提取表情二值特征,并形成表情区域注意权重,实现表情局部特征与...  相似文献   

20.
针对传统的恶意代码检测方法存在成本过高和检测结果不稳定等问题,提出一种基于深度可分离卷积的多神经网络恶意代码检测模型。该模型使用深度可分离卷积(DSC)、SENet(Squeeze-and-Excitation Network)通道注意力机制和灰度共生矩阵(GLCM),通过三个轻型神经网络与灰度图像纹理特征分类并联检测恶意代码家族及其变种,将多个强分类器检测结果通过朴素贝叶斯分类器融合,在提高检测准确率的同时减少网络计算开销。在MalVis+良性数据的混合数据集上的实验结果表明,该模型对恶意代码家族及其变种的检测准确率达到97.43%,相较于ResNet50、VGGNet模型分别提高了6.19和2.29个百分点,而它的参数量只有ResNet50模型的68%和VGGNet模型的13%;在malimg数据集上该模型的检测准确率达到99.31%。可见,所提模型检测效果较好,且参数量也有所降低。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号