首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
基于深度迁移学习的烟雾识别方法   总被引:1,自引:0,他引:1  
王文朋  毛文涛  何建樑  窦智 《计算机应用》2017,37(11):3176-3181
针对传统的基于传感器和图像特征的烟雾识别方法易被外部环境干扰且识别场景单一,从而造成烟雾识别精度较低,而基于深度学习的识别方法对数据量要求较高,对于烟雾数据缺失或数据来源受限的情况模型识别能力较弱的问题,提出一种基于深度迁移学习的烟雾识别方法。将ImageNet数据集作为源数据,利用VGG-16模型进行基于同构数据下的特征迁移。首先,将所有的图像数据进行预处理,对每张图像作随机变换(随机旋转、剪切、翻转等);其次,引入VGG-16网络,将其卷积层特征进行迁移,并连接预先使用烟雾数据在VGG-16网络中训练过的全连接层;进而构建出基于迁移学习的深度网络,从而训练得到烟雾识别模型。利用公开数据集以及真实场景烟雾图像进行实验验证,实验结果表明,和现有主流烟雾图像识别方法相比,所提方法有较高的烟雾识别率,实验精度达96%以上。  相似文献   

2.
史文旭  鲍佳慧  姚宇 《计算机应用》2005,40(12):3558-3562
为解决目前的遥感图像目标检测算法存在的对小尺度目标检测精度低和检测速度慢等问题,提出了一种基于深度学习的遥感图像目标检测与识别算法。首先,构建一个含有不同尺度大小的遥感图像的数据集用于模型的训练和测试;其次,基于原始的多尺度单发射击(SSD)网络模型,融入了设计的浅层特征融合模块、浅层特征增强模块和深层特征增强模块;最后,在训练策略上引入聚焦分类损失函数,以解决训练过程中正负样本失衡的问题。在高分辨率遥感图像数据集上进行实验,结果表明所提算法的检测平均精度均值(mAP)达到77.95%,相较于SSD网络模型提高了3.99个百分点,同时检测速度为33.8 frame/s。此外,在拓展实验中,改进算法对高分辨率遥感图像中模糊目标的检测效果也优于原多尺度单发射击网络模型。实验结果说明,所提改进算法能够有效地提高遥感图像目标检测的精度。  相似文献   

3.
在深度学习模型训练中,提高输入样本数量能够有效解决样本不均衡和训练过拟合问题。为更好地处理数据集的小样本场景,提出了一种基于PolyLoss的StarGAN小样本图像增强方法(PolyStarGAN)。相比传统样本增强方法,该网络具有更高的样本学习、生成能力。该方法使用训练生成器和判别器提取图像的特征信息,生成图像与输入图像的内容和结构一致。通过计算峰值信噪比、结构相似性与视觉信息保真度3个方面评估PolyStarGAN网络生成结果;在ResNet50目标识别模型训练中验证数据集质量。实验结果表明,提出的模型对不同场景图像的增强效果较好,提高了自生长数据集的ResNet50模型识别精度,可为样本自生长中的小样本问题提供参考方案与技术支持。  相似文献   

4.
提高图像质量与利用新的图像分类方法是提高遥感图像树种识别精度两个突破口. 本文基于VGG16的预训练模型与无人机可见光影像进行杉木、马尾松2个树种识别研究. 利用大疆精灵4RTK无人机, 搭载FC6310R相机, 采集南平市和三明市的杉木和马尾松人工纯林彩色图像. 通过图像预处理、标注、裁剪和增强等环节构建UAVTree2k和UAVTree20k两个数据集. 基于UAVTree2k数据集和VGG16模型在ImageNet数据集的预训练模型, 重新训练3个全连接层和Sigmoid层, 研究探讨不同迭代次数、不同批次大小、不同训练集和测试集划分比例对识别精度的影像. 研究结果表明, 当迭代次数为40、批次大小为16、训练集和测试集为6:4时, 模型识别效果最好, 测试精度达到98.63%; 小样本下, 基于VGG16的预训练模型具有良好的特征学习能力.  相似文献   

5.
谢永华  韩丽萍 《计算机应用》2018,38(6):1765-1770
受显微传感器和不规则收集方法的影响,花粉图像常受到不同程度的噪声干扰且有着不同角度的旋转变化,识别精度普遍不高,为此提出了基于主梯度编码的局部二进制模式(DGLBP)描述子,并应用于花粉图像的分类识别。首先,计算图像块在主梯度方向上的梯度幅值;其次,分别计算图像块的径向、角向,以及复合梯度差;然后,根据各图像块的梯度差进行二进制编码,参照各局部区域的纹理分布情况为二进制编码自适应分配权重,并提取花粉图像在3个方向上的纹理特征直方图;最后,对不同尺度下的纹理特征直方图进行融合,采用欧氏距离计算各图像的相似度。DGLBP方法在Confocal和Pollenmonitor数据集上的平均正确识别率分别为94.33%和92.02%,与其他花粉识别方法相比平均提高了8.9个百分点和8.6个百分点,与LBP改进方法相比平均提高了18个百分点和18.5个百分点。实验结果表明,DGLBP描述子对花粉图像的噪声干扰和旋转变化具有较好的鲁棒性,且具有较优的识别效果。  相似文献   

6.
为了解决传统监控视频车辆型号精细识别存在误差较大的问题,提出了一种新的基于深度强化学习的监控视频车辆型号精细识别方法。通过聚类分析方法提取监控视频关键帧图像,并对关键帧图像进行最临近插值处理,对插值后图像做一次开运算与一次闭运算,即可获得图像中车辆的大致轮廓,得到车辆识别数据集。通过深度强化学习构建一个深度可分离卷积模型,输入待识别数据集进行模型的训练学习,完成监控视频车辆型号精细识别。实验结果表明,设计方法识别不同车辆型号的准确率高达95.16%,说明该方法具备较高的识别精度,对于交通管理和城市交通发展具有积极的推动作用。  相似文献   

7.
台标是视频的重要语义信息,其检测与识别面临类别多、结构复杂、区域小、信息量低、背景干扰大等难题.为提高模型的泛化能力,本文提出将台标图像叠加到背景图像中合成台标数据,来构建训练数据集.进一步,我们提出两阶段可伸缩台标检测与识别(scalable logo detection and recognition,SLDR)方法,其采用batch-hard度量学习方法快速训练匹配模型,确定台标类别.SLDR的检测与识别分离机制使得其可将检测目标扩展到未知类别.实验结果表明,合成数据可以有效提升模型的泛化能力和检测精度.实验亦显示SLDR方法在不更新检测模型的情况下,即可获得与端到端模型相当的精度.  相似文献   

8.
目的 车型识别在智能交通、智慧安防、自动驾驶等领域具有十分重要的应用前景。而车型识别中,带标签车型数据的数量是影响车型识别的重要因素。本文以"增强数据"为核心,结合PGGAN(progressive growing of GANs)和Attention机制,提出一种基于对抗网络生成数据再分类的网络模型AT-PGGAN(attention-progressive growing of GANs),采用模型生成带标签车型图像的数量,从而提高车型识别准确率。方法 该模型由生成网络和分类网络组成,利用生成网络对训练数据进行增强扩充,利用注意力机制和标签重嵌入方法对生成网络进行优化使其生成图像细节更加完善,提出标签重标定的方法重新确定生成图像的标签数据,并对生成图像进行相应的筛选。使用扩充的图像加上原有数据集的图像作为输入训练分类网络。结果 本文模型能够很好地扩充已有的车辆图像,在公开数据集StanfordCars上,其识别准确率相比未使用AT-PGGAN模型进行数据扩充的分类网络均有1%以上的提升,在CompCars上与其他网络进行对比,本文方法在同等条件下最高准确率达到96.6%,高于对比方法。实验结果表明该方法能有效提高车辆精细识别的准确率。结论 将生成对抗网络用于对数据的扩充增强,生成图像能够很好地模拟原图像数据,对原图像数据具有正则的作用,图像数据可以使图像的细粒度识别准确率获得一定的提升,具有较大的应用前景。  相似文献   

9.
目的 在高分辨率遥感图像场景识别问题中,经典的监督机器学习算法大多需要充足的标记样本训练模型,而获取遥感图像的标注费时费力。为解决遥感图像场景识别中标记样本缺乏且不同数据集无法共享标记样本问题,提出一种结合对抗学习与变分自动编码机的迁移学习网络。方法 利用变分自动编码机(variational auto-encoders,VAE)在源域数据集上进行训练,分别获得编码器和分类器网络参数,并用源域编码器网络参数初始化目标域编码器。采用对抗学习的思想,引入判别网络,交替训练并更新目标域编码器与判别网络参数,使目标域与源域编码器提取的特征尽量相似,从而实现遥感图像源域到目标域的特征迁移。结果 利用两个遥感场景识别数据集进行实验,验证特征迁移算法的有效性,同时尝试利用SUN397自然场景数据集与遥感场景间的迁移识别,采用相关性对齐以及均衡分布适应两种迁移学习方法作为对比。两组遥感场景数据集间的实验中,相比于仅利用源域样本训练的网络,经过迁移学习后的网络场景识别精度提升约10%,利用少量目标域标记样本后提升更为明显;与对照实验结果相比,利用少量目标域标记样本时提出方法的识别精度提升均在3%之上,仅利用源域标记样本时提出方法场景识别精度提升了10%~40%;利用自然场景数据集时,方法仍能在一定程度上提升场景识别精度。结论 本文提出的对抗迁移学习网络可以在目标域样本缺乏的条件下,充分利用其他数据集中的样本信息,实现不同场景图像数据集间的特征迁移及场景识别,有效提升遥感图像的场景识别精度。  相似文献   

10.
视频图像定位方法可以解决GPS拒止环境下行车定位问题,该方法对公路路牌检测与字符序列识别,通过地理信息检索,得到路牌所在位置的地理信息。针对路牌检测类别少的问题,对YOLOv3进行轻量化改造,提出了简化的YOLOv3(simplified YOLOv3,S-YOLOv3);为了提高字符分类精度,对YOLOv3进行特征融合策略改进,提出高精度的字符分类YOLOv3(high precision character classification YOLOv3,HPCC-YOLOv3);分别对S-YOLOv3与HPCC-YOLOv3进行训练与测试;按照字符检测结果所处的位置进行字符聚类,实现字符序列识别;设计了由车载大恒水星相机、计算机组成的图像采集、车牌检测与字符识别系统;在复杂环境下进行跑车实验,结果表明了提出的方法能够有效提高视频图像路牌目标检测的速度和字符序列识别的精度。  相似文献   

11.
邱津怡  罗俊  李秀  贾伟  倪福川  冯慧 《计算机应用》2019,39(10):2930-2936
葡萄品种质量检测需要识别多类别的葡萄,而葡萄图片中存在多种景深变化、多串等多种场景,单一预处理方法存在局限导致葡萄识别的效果不佳。实验的研究对象是大棚中采集的15个类别的自然场景葡萄图像,并建立相应图像数据集Vitis-15。针对葡萄图像中同一类别的差异较大而不同类别的差异较小的问题,提出一种基于卷积神经网络(CNN)的多尺度葡萄图像识别方法。首先,对Vitis-15数据集中的数据通过三种方法进行预处理:旋转图像的数据扩增方法、中心裁剪的多尺度图像方法以及前两种方法的数据融合方法;然后,采用迁移学习方法和卷积神经网络方法来进行分类识别,迁移学习选取ImageNet上预训练的Inception V3网络模型,卷积神经网络采用AlexNet、ResNet、Inception V3这三类模型;最后,提出适合Vitis-15的多尺度图像数据融合的分类模型MS-EAlexNet。实验结果表明,在同样的学习率和同样的测试集上,数据融合方法在MS-EAlexNet上的测试准确率达到了99.92%,相较扩增和多尺度图像方法提升了近1个百分点,并且所提方法在分类小样本数据集上具有较高的效率。  相似文献   

12.
宫颈癌是一种严重威胁女性生命及身体健康的重大疾病。宫颈细胞涂片图像是进行癌变识别的重要诊断依据。为了提高癌变细胞的识别精度,本文在胶囊神经网络(CapsNet)的基础上,提出了一种改进的胶囊神经网络模型( improved-Caps-Net,i-CapsNet)。 首先,针对宫颈癌涂片图像具有三维通道数据特征,构建了多维度数据输入层,并增加三维数据深度卷积层, 增强图像深层特征提取能力。其次,改进了编码器中的动态路由方式,采用C-squashing非线性函数作为激活函数,更快速准确地实现胶囊模长的压缩,达到提高癌变细胞的识别精度。然后,针对 Herlev公共数据集中正负样本量不平衡现象,将阿里天池宫颈液基薄层电镜扫描图像进行癌细胞图像提取及图像预处理,构建负样本数据集,提高了数据集的多样性和均衡性。最后,采用十折交叉验证方法,进行训练、验证及测试,与SVM、LeNet-5、VGG16、CapsNet模型进行效果对比。本文提出的i-CapsNet模型训练的Loss值最小,收敛到0.0074,测试的识别精度最高,达到99.2%,效果良好,验证了所提出的i-CapsNet的有效性和可行性。  相似文献   

13.
邓天民  方芳  周臻浩 《计算机应用》2005,40(10):2872-2880
针对雾天、光照、遮挡和大倾角等因素导致的交通标志识别准确率低、泛化性差等问题,提出一种基于神经网络的轻量级交通标志识别方法。首先,利用图像归一化、仿射变换和限制对比度自适应直方图均衡化(CLAHE)方法进行图像预处理,以提高图像质量;其次,基于卷积神经网络(CNN),融合空间金字塔结构和批量归一化(BN)方法构建改进空间金字塔池化卷积神经网络(SPPN-CNN)模型,并利用Softmax分类器实现交通标志分类;最后,选用德国交通标志识别数据集(GTSRB),对比不同图像预处理方法、模型参数和模型结构的训练效果,并验证和测试所提模型。实验结果表明,SPPN-CNN模型的识别精度达到98.04%,损失小于0.1,在低配GPU条件下识别速率大于3 000 frame/s,验证了模型精度高、泛化性强、实时性好的特点。  相似文献   

14.
现实中拍摄的字轮式水表图像的读数区域存在不同的位数和旋转角度的问题,这些问题对识别准确率造成很大的影响。针对这种情况,提出一种基于深度学习的水表读数检测与识别算法。该方法使用改进的圆盘检测算法来对水表圆盘进行检测;采用一种改进的多方向全卷积网络检测出水表的读数区域,同时提出一种图像旋转矫正算法,实现对水表读数区域的矫正与分割;对于读数识别,设计一种轻量级的神经网络,减少模型大小和加速训练过程的同时保持较高的识别精度。实验结果表明,该方法的圆盘检测率从93.97%提高到了96.38%,读数区域检测模型对不同类型的水表读数区域具有较好的检测效果,识别模型的大小从8.77 MB减少到7.32 MB,模型的训练和测试时间短,准确率达到96.44%。  相似文献   

15.
深度学习图像数据增广方法研究综述   总被引:1,自引:0,他引:1       下载免费PDF全文
数据作为深度学习的驱动力,对于模型的训练至关重要。充足的训练数据不仅可以缓解模型在训练时的过拟合问题,而且可以进一步扩大参数搜索空间,帮助模型进一步朝着全局最优解优化。然而,在许多领域或任务中,获取到充足训练样本的难度和代价非常高。因此,数据增广成为一种常用的增加训练样本的手段。本文对目前深度学习中的图像数据增广方法进行研究综述,梳理了目前深度学习领域为缓解模型过拟合问题而提出的各类数据增广方法,按照方法本质原理的不同,将其分为单数据变形、多数据混合、学习数据分布和学习增广策略等4类方法,并以图像数据为主要研究对象,对各类算法进一步按照核心思想进行细分,并对方法的原理、适用场景和优缺点进行比较和分析,帮助研究者根据数据的特点选用合适的数据增广方法,为后续国内外研究者应用和发展研究数据增广方法提供基础。针对图像的数据增广方法,单数据变形方法主要可以分为几何变换、色域变换、清晰度变换、噪声注入和局部擦除等5种;多数据混合可按照图像维度的混合和特征空间下的混合进行划分;学习数据分布的方法主要基于生成对抗网络和图像风格迁移的应用进行划分;学习增广策略的典型方法则可以按照基于元学习和基于强化学习进行分类。目前,数据增广已然成为推进深度学习在各领域应用的一项重要技术,可以很有效地缓解训练数据不足带来的深度学习模型过拟合的问题,进一步提高模型的精度。在实际应用中可根据数据和任务的特点选择和组合最合适的方法,形成一套有效的数据增广方案,进而为深度学习方法的应用提供更强的动力。在未来,根据数据和任务基于强化学习探索最优的组合策略,基于元学习自适应地学习最优数据变形和混合方式,基于生成对抗网络进一步拟合真实数据分布以采样高质量的未知数据,基于风格迁移探索多模态数据互相转换的应用,这些研究方向十分值得探索并且具有广阔的发展前景。  相似文献   

16.
车辆型号精细识别在智能交通系统、涉车刑侦案件侦破等方面具有十分重要的应用前景。针对车辆型号种类繁多、部分型号区分度小等带来的车辆型号精细分类困难的问题,提出一种基于胶囊神经网络(capsule network,CapsNet)的车型图像识别模型CapCar。以CompCars数据集作为样本,首先通过加权平均值法进行图像的灰度化处理,减少数据集训练计算量,提高模型的训练速度。然后通过胶囊神经网络提取车型图像的全部特征和局部特征,实现车型分类识别。相较于现有的车型精细识别方法,该方法在提高识别精度的同时,有效压缩了模型参数规模。在基准数据集CompCars下进行大量实验的结果表明,CapCar模型进行车辆精细识别精度可达98.89%,其识别率高于一些其他经典的网络模型。CapCar模型参数大小仅为6.3 MB。该算法具有一定的先进性。  相似文献   

17.
张强  张勇  刘芝国  周文军  刘佳慧 《计算机工程》2020,46(3):237-245,253
针对基于人工建模方式的手势识别方法准确率低、速度慢的问题,提出一种基于改进YOLOv3的静态手势实时识别方法。采用卷积神经网络YOLOv3模型,将通过Kinect设备采集的IR、Registration of RGB、RGB和Depth图像代替常用的RGB图像作为数据集,并融合四类图像的识别结果以提高识别准确率。采用k-means聚类算法对YOLOv3中的初始候选框参数进行优化,从而加快识别速度。在此基础上,利用迁移学习的方法对基础特征提取器进行改进,以缩短模型的训练时间。实验结果表明,该方法对流式视频静态手势的平均识别准确率为99.8%,识别速度高达52 FPS,模型训练时间为12 h,与Faster R-CNN、SSD、YOLOv2等深度学习方法相比,其识别精度更高,识别速度更快。  相似文献   

18.
熊朝阳  王婷 《计算机科学》2021,48(z1):51-56
对于现存的大量既有建筑,利用三维激光扫描所得到的点云数据生成BIM模型,需要将点云数据转换成建筑RGB-D图像,并对图像进行分类处理.传统图像识别技术无论是识别准确度还是面对复杂场景的模型泛化能力等,都难以满足现在的需求.文中基于深度学习算法,针对室内建筑门窗构件图像的分类问题,提出了一种运用卷积神经网络模型进行建筑构件图像识别的方法.该方法首先将收集的数据集进行数据增强处理以增加数据丰富度,并使用在ImageNet上已经训练好权重的VGG16作为识别网络,随后对网络进行优化,包括增加Dropout层、L2正则化以及采用Fine-tune操作来提升网络的识别精度.实验结果表明,进行了Fine-tune等优化后的模型的平均识别准确率达到95.4%,相比于未经过优化的模型的准确率提高了大约5.1%.  相似文献   

19.
针对煤矿井下光照分布不均匀造成视频图像失真,火灾识别精度低等问题,提出了一种矿井火灾视频图像智能识别方法。该方法以YOLOv5为识别模型,采用K-means算法对传统的暗通道图像去雾算法进行改进,并用改进算法对采集的火焰图像进行去雾处理,提高矿井火灾视频图像识别精度;为减少静态背景对火灾识别的影响,采用帧差法与混合高斯模型融合算法,对动态演化的火焰图像进行特征提取,并采用形态学处理算法消除图像中存在的缺口,从而得到更加完整的火焰目标图像;对火灾视频图像数据集进行标注,并输入到YOLOv5算法模型进行训练及测试。结果表明:基于YOLOv5的矿井火灾视频图像智能识别方法平均精度为92%,损失函数为0.6,比传统算法Alexnet,VGG16,Inceptionv3的平均精度分别高9.6%,13.5%,4.9%,表明该方法检测速度快、精度高,可有效提高矿井火灾识别准确率。  相似文献   

20.
基于深度特征与非线性降维的图像数据集可视化方法   总被引:1,自引:0,他引:1  
为了降低传统高维图像数据降维可视化带来的损失,提高数据可视化的效果,提出了一种基于深度特征与非线性降维相结合的图像数据集可视化方法。该方法首先设计并训练了一个卷积神经网络模型,模型在MNIST手写体图像数据集上,取得了单模型最高的识别精度。其次,利用该高精度模型抽取图像数据的深度中间层特征,将该深度特征作为图像数据的有效表示。最后针对深度特征使用非线性降维方法将数据最终降低为二维,实现数据可视化。实验结果表明,该方法能够有效降低传统图像降维可视化方法中降维损失所带来的误差,可视化效果十分明显。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号