首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
针对深度卷积神经网络模型缺乏对语义信息的表征能力,而细粒度视觉识别中种类间视觉差异微小且多集中在关键的语义部位的问题,提出基于语义信息融合的深度卷积神经网络模型及细粒度车型识别模型.该模型由定位网络和识别网络组成,通过定位网络FasterRCNN获取车辆目标及各语义部件的具体位置;借助识别网络提取目标车辆及各语义部件的特征,再使用小核卷积实现特征拼接和融合;最后经过深层神经网络得到最终识别结果.实验结果表明,文中模型在斯坦福BMW-10数据集的识别准确率为78.74%,高于VGG网络13.39%;在斯坦福cars-197数据集的识别准确率为85.94%,其迁移学习模型在BMVC car-types数据集的识别准确率为98.27%,比该数据集目前最好的识别效果提高3.77%;该模型避免了细粒度车型识别对于车辆目标及语义部件位置的依赖,并具有较高的识别准确率及通用性.  相似文献   

2.
针对细粒度车型识别率低,车型区别主要集中在鉴别性部件上以及深度学习不能有效对部件进行关注的问题,提出一种基于部件关注DenseNet(part-focused DenseNet, PF-DenseNet)的细粒度车型识别模型。该模型可以基于细粒度车型的车灯、车标等区分性部件进行有效分类,通过处理层(process layer)对车型部件信息反复加强提取并进行最大池化下采样,获取更多的车型部件信息,然后通过密集卷积对特征通道进一步复用提取,密集卷积前嵌入独立组件(independent component, IC)层,获得相对独立的神经元,增强网络独立性,提高模型的收敛极限。实验结果表明,该模型在Stanford cars-196数据集上的识别准确率、查全率和F1分别达到95.0%、94.9%和94.8%,高于经典卷积神经网络,并具有较小的参数量,与其他方法相比实现了最高准确率,验证了该车型识别模型的有效性。  相似文献   

3.
针对车辆型号繁多、部分型号间差异较小带来车辆分类困难的问题,构建一种基于改进的Mask R-CNN细粒度车辆型号识别算法。改进后的算法采用聚合残差-特征金字塔网络(ResNeXt-FPN)提取特征图;调整了区域建议网络(RPN)中锚(Anchor)的尺寸大小;用Soft-NMS代替了非极大值抑制算法(NMS),以提高检测精度;去除掩码分支,节省了预测时间。为了验证算法改进的效果,将其与最新的目标检测算法进行对比。实验结果证明,改进的算法提高了车辆识别的准确率,比原始算法准确率提升了2%。  相似文献   

4.
目的 细粒度车型识别旨在通过任意角度及场景下的车辆外观图像识别出其生产厂家、品牌型号、年款等信息,在智慧交通、安防等领域具有重要意义。针对该问题,目前主流方法已由手工特征提取向卷积神经网络为代表的深度学习方法过渡。但该类方法仍存在弊端,首先是识别时须指定车辆的具体位置,其次是无法充分利用细粒度目标识别其视觉差异主要集中在关键的目标局部的特点。为解决这些问题,提出基于区域建议网络的细粒度识别方法,并成功应用于车型识别。方法 区域建议网络是一种全卷积神经网络,该方法首先通过卷积神经网络提取图像深层卷积特征,然后在卷积特征上滑窗产生区域候选,之后将区域候选的特征经分类层及回归层得到其为目标的概率及目标的位置,最后将这些区域候选通过目标检测网络获取其具体类别及目标的精确位置,并通过非极大值抑制算法得到最终识别结果。结果 该方法在斯坦福BMW-10数据集的识别准确率为76.38%,在斯坦福Cars-196数据集识别准确率为91.48%,不仅大幅领先于传统手工特征方法,也取得了与目前最优的方法相当的识别性能。该方法同时在真实自然场景中取得了优异的识别效果。结论 区域建议网络不仅为目标检测提供了目标的具体位置,而且提供了具有区分度的局部区域,为细粒度目标识别提供了一种新的思路。该方法克服了传统目标识别对于目标位置的依赖,并且能够实现一图多车等复杂场景下的车型细粒度识别,具有更好的鲁棒性及实用性。  相似文献   

5.
车型识别,尤其是细粒度车型识别是现代智能交通系统的重要组成部分。针对传 统车型识别方法难以进行有效的细粒度车型识别的问题,以AlexNet、GoogleNet 及ResNet 等3 种经典深度卷积神经网络架构作为基础网络,引入了车辆的类型分类作为辅助任务,从而与细 粒度车型识别任务一起构成了一个多任务联合学习的模型。通过在一个包含281 个车型类别的 公开数据集上对模型进行训练及测试,在无需任何车辆的部件位置标注及额外的3D 信息的情 况下,验证了该模型在在细粒度车型识别任务上表现出的优异性能,同时多任务学习策略的引 入可使得模型性能相比任一单任务学习时的性能均有所提高,最终实现了一个简洁高效的细粒 度车型识别模型,基本满足实际应用需求。  相似文献   

6.
7.
为解决现有车型精细识别方法中存在识别精度低、模型参数规模大等问题,提出一种基于特征融合卷积神经网络的车型精细识别方法。设计两个独立网络(UpNet、DownNet)分别用于提取车辆正面图像的上部和下部特征,在融合网络(FusionNet)中进行特征融合,实现车型的精细识别。相较于现有的车型精细识别方法,该方法在提高识别精度的同时,有效压缩了模型参数规模。在基准数据集CompCars下进行大量实验的结果表明,该方法的识别精度可达98.94%,模型参数大小仅为4.9MB。  相似文献   

8.
鉴于现有人脸表情识别方法在表情识别过程中存在的诸多痛点,比如对有效特征提取不够、泛化能力不强、识别准确性不高等,提出了一种改进残差网络的人脸表情识别方法。首先,引入卷积注意力机制,对网络中间的特征图进行重构,强调重要特征,抑制一般特征;其次,使用激活函数PReLU替换ResNet中原有的ReLU,在提高模型拟合复杂数据能力的同时,避免出现在负值区域的梯度永远为0,进而导致模型训练时无法执行反向传播的问题;然后,在网络输出层的avgpool与fc之间加入Dropout抑制过拟合,以进一步增加网络模型的鲁棒性与泛化性;最后,在公开数据集CK+上的仿真实验结果表明,该方法的准确识别率达到96.12%。与现有多种经典算法,以及baseline算法即ResNet101相比,改进的网络模型具有更好的识别效果,证明了该方法的有效性与优异性。  相似文献   

9.
针对基于字级别的命名实体识别方法无法充分利用句子词语信息的问题,提出一种融合词语信息的细粒度命名实体识别模型。该模型通过引入外部词典,在基于字表示中融入句子潜在词语的信息,避免了分词错误传播的问题,同时构建了一种增强型字向量表达;利用扁平化的Lattice Transformer网络结构对字和词语的表示以及位置关系信息进行建模;通过CRF(Conditional Random Filed)计算得到最优标签序列。在细粒度命名实体语料CLUENER2020上进行了实验,精确率达到82.46%,召回率达到83.14%,F1值达到82.80%,验证了融合词语信息可以提升细粒度命名实体识别效果。  相似文献   

10.
为了提高脉搏波识别的准确率,提出改进的深度融合神经网络MIRNet2.首先,经过主波提取、划分周期和制作hdf5数据集等,获得Caffe可处理的数据集.其次,提出由Inception模块和残差模块构成的融合网络Inception-ResNet (IRNet),包含IRNet1、IRNet2和IRNet3.在此基础上,改进Inception模块、残差模块和池化模块,构造Modified Inception-ResNet (MIRNet),包含MIRNet1和MIRNet2.与本文其它神经网络相比,MIRNet2的分类性能最好,特异性、灵敏度和准确率分别达到87.85%、88.05%和87.84%,参数量和运算量也少于IRNet3.  相似文献   

11.
基于多线性独立成分分析的掌纹识别   总被引:2,自引:0,他引:2       下载免费PDF全文
为快速有效地在掌纹识别中学习多种因素的高阶统计独立成分,利用多线性独立成分分析方法对掌纹张量进行降维,得到低维的模式矩阵,将掌纹图像向模式矩阵上投影以提取核心张量,通过计算核心张量间的余弦距离实现掌纹匹配。基于PolyU掌纹图像库的实验结果表明,与主成分分析(PCA)、二维PCA、独立成分分析和多线性PCA相比,该方法的识别率最高,且满足系统实时性要求。  相似文献   

12.
独立成分分析近年来广泛应用于人脸识别等模式领域。首先对人脸图像进行预处理降维,然后利用ICA算法获得人脸影像独立基成分,利用人脸影像独立基来构造一个子空间,最后利用待识别图像在这个空间上的投影进行人脸识别。针对训练样本个数,训练人数以及独立基数目影响识别率等三个问题进行实验,得出结果并进行分析。  相似文献   

13.
细粒度图像识别旨在从类别图像中辨别子类别。由于图像间只有细微差异,这使得识别任务具有挑战性。随着深度学习技术的不断进步,基于深度学习的方法定位局部和表示特征的能力越来越强,其中以卷积神经网络(CNN)和Transformer为基础的各类算法大大提高了细粒度图像识别精度,细粒度图像领域得到了显著发展。为了整理两类方法在细粒度图像识别领域的发展历程,对该领域近年来只运用类别标签的方法进行了综述。介绍了细粒度图像识别的概念,详细阐述了主流细粒度图像数据集;介绍了基于CNN和Transformer的细粒度图像识别方法及其性能;最后,总结了细粒度图像识别未来的研究方向。  相似文献   

14.
在这份报纸,我们为车辆的有细密纹理的分类建议一个局部地提高的 PCANet 神经网络。建议方法采用 PCANet 有层和简单参数的一个更小的数字的无指导的网络与最先进的机器学习方法的多数相比。它简化计算步骤并且用手的标记,并且使车辆类型能没有费时间的训练,被认识到。试验性的结果证明与传统的模式识别方法和多层的 CNN 方法相比,建议方法以改变样品图书馆,角度偏差,和训练速度的规模完成最佳的平衡。它也显示介绍从一般特征有不同规模的适当本地特征在改进识别率是很有帮助的。在 180 的 7 角度#  相似文献   

15.
为解决单一特征细粒度船舶图像识别率低的问题,提出一种循环注意卷积神经网络(recurrent attention convolutional neural network,RA-CNN)与多特征区域融合的船舶目标识别方法。该方法通过在VGG-19网络中引入尺度依赖池化(scale-dependent pooling,SDP)算法解决小目标过度池化的问题,提升了小型船舶的识别性能;注意建议网络(attention proposal network,APN)加入联合聚类(joint clustering)算法,生成多个独立的特征区域,使整个模型充分利用全局信息,提高了船舶识别精度;同时设计特征区域优化方法降低多个特征区域的重叠率,解决了过拟合问题;通过定义新的损失函数来交叉训练VGG-19和APN,加快了收敛速度。利用公开的光电船舶数据集对该方法进行测试实验,识别准确率最高可达90.2%,无论是识别率还是模型的鲁棒性较单特征都有了很大的提升。  相似文献   

16.
基于深度学习的端到端语音识别模型中,由于模型的输入采用固定长度的语音帧,造成时域信息和部分高频信息损失进而导致识别率不高、鲁棒性差等问题。针对上述问题,提出了一种基于残差网络与双向长短时记忆网络相结合的模型,该模型采用语谱图作为输入,同时在残差网络中设计并行卷积层,提取不同尺度的特征,然后进行特征融合,最后采用连接时序分类方法进行分类,实现一个端到端的语音识别模型。实验结果表明,该模型在Aishell-1语音集上字错误率相较于传统端到端模型的WER下降2.52%,且鲁棒性较好。  相似文献   

17.
姜倩  刘曼 《计算机系统应用》2020,29(10):248-254
细粒度的图片分类是深度学习图片分类领域中的一个重要分支,其分类任务比一般的图片分类要困难,因为很多不同分类图片中的特征相似度极高,没有特别鲜明的特征用以区分,因而需要优化一个传统的图片分类方法.在一般的图片分类中,通常通过提取视觉以及像素级别的特征用来训练,然而直接应用到细粒度分类上并不太适配,效果仍有待提高,可考虑利用非像素级别的特征来加以区分.因此,我们提出联合文本信息和视觉信息作用于图片分类中,充分利用图片上的特征,将文本检测与识别算法和通用的图片分类方法结合,应用于细粒度图片分类中,在Con-text数据集上的实验结果表明我们提出的算法得到的准确率有显著的提升.  相似文献   

18.
林婷  刘湘南  金铭 《计算机工程》2011,37(11):272-274
针对传统的固定点算法对分离矩阵初始值敏感的问题,提出一种改进的独立分量分析(ICA)算法,通过在传统的算法核心迭代过程中加入搜索因子,降低算法对矩阵初始值的依赖,提高处理效率。将ICA算法应用于作物精细光谱的分类,分别利用传统固定点算法和改进的固定点算法对混合光谱进行信息提取与分离。实验证明,改进的ICA算法在与传统算法作物光谱分类效果相当的情况下,迭代次数减少26%,提高了独立分量的分离效率,是一种有效的作物光谱分类方法。  相似文献   

19.
提出一种分块类增广PCA方法并应用于人脸识别中。对原始图像矩阵进行分块,对各个分块子图像施行自适应的CAPCA方法进行特征提取,将提取到的特征依次整合,从而达到降维的目的。该方法不仅能有效提取图像的局部特征,而且能适应不同的光照条件。实验结果表明,该方法在识别性能上优于CAPCA方法和分块PCA方法。  相似文献   

20.
针对卷积神经网络对手写数字识别训练在卷积核随机初始化情况下收敛速度慢和识别率低的问题,提出一种主成分分析(PCA)初始化卷积核的卷积神经网络(CNN)手写数字识别算法。算法首先选取训练样本集并将其送入CNN,在相应层对Feature Map进行全覆盖取图像块处理,然后进行分层PCA学习,将学习到的特征向量做为对应卷积层的卷积核参数进行初始化,最后再用这些卷积核对原始图像进行卷积操作。实验结果表明,与随机初始化卷积核的CNN手写数字识别算法相比,改进的算法在应用MNIST数据库训练时不仅收敛,而且在产生相同均方误差的情况下迭代次数少,识别率高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号