首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
深度学习和迁移学习的兴起为树种识别提供了新方向,然而其在同树种内不同品质间木材识别仍存在挑战。为改善古筝面板品质分级现状,设计了一种深度残差网络模型。首先将数据集进行划分并采用数据增强技术来扩充训练样本,然后将ImageNet上经过预训练的模型迁移到该问题上。为高效提取到板材图像特征,在预训练模型后新增深层特征提取部分,其融合了残差连接和深度可分离卷积,不仅可增强特征重利用率和缓解梯度消失,而且有利于提取到图像深层特征。最后为提升模型在训练过程中的鲁棒性,使用LeakyReLU函数代替ReLU函数避免神经元死亡问题。该方法在泡桐导管图像数据集上测试精度达到了92.8%,对比其他主流方法,该模型可节省古筝品质分级时间,提高识别精度。  相似文献   

2.
近年来,人们为处理众多问题引入了各种类型的神经网络,神经网络取得了巨大的发展。任何神经网络使用的层次结构是线性和非线性函数的组合,其中最常见的非线性层是激活函数,如Logistic Sigmoid、Tanh、ReLU、ELU、Swish和Mish。对深度学习神经网络中的激活函数进行了介绍,并对不同激活函数的输出范围、单调性、平滑性等特点进行了分析。通过在数据集上测试,对现在使用频率较高的激活函数进行了性能测试。对激活函数的分析将有助于进一步地在模型设计中进行选择。  相似文献   

3.
针对神经网络结构的特征提取能力不足以及在包含复杂图像特征的数据集上分类准确率不高的问题,本文提出了一种对MobileNet神经网络的改进策略(L-MobileNet)。将原标准卷积形式替换为深度可分离卷积形式,并将深度卷积层得到的特征图执行取反操作,通过深度卷积融合层传递至下一层;采用Leaky ReLU激活函数代替原ReLU激活函数来保留图像中更多的正负特征信息,并加入类残差结构避免梯度弥散现象。与6种方法进行对比,实验结果表明:L-MobileNet在数据集Cifar-10、Cifar-100(coarse)、Cifar-100(fine)和Dogs vs Cats上平均准确率和最高准确率都取得了最佳结果。  相似文献   

4.
针对特定任务中深度学习模型的激活函数不易选取的问题,在分析传统激活函数和现阶段运用比较广泛的激活函数的优缺点的基础上,将Tanh激活函数与广泛使用的ReLU激活函数相结合,构造了一种能够弥补Tanh函数和ReLU函数缺点的激活函数T-ReLU。通过构建台风等级分类的深度学习模型Typ-CNNs,将日本气象厅发布的台风卫星云图作为自建样本数据集,采用几种不同的激活函数进行对比实验,结果显示使用T-ReLU函数得到的台风等级分类的测试精度比使用ReLU激活函数的测试精度高出1.124%,比使用Tanh函数的测试精度高出2.102%;为了进一步验证结果的可靠性,采用MNIST通用数据集进行激活函数的对比实验,最终使用T-ReLU函数得到99.855%的训练精度和98.620%的测试精度,其优于其他激活函数的效果。  相似文献   

5.
利用深度迁移学习算法,将深度模型迁移至小批量数据中进行使用,解决过拟合和对数据标签依赖性强的问题。首先,将已经训练好的模型应用在相似图像分类任务中,提高模型效率;其次利用微调策略,对深度学习网络全连接层进行调整,丢弃部分神经元以降低过拟合的发生,提高模型准确性;最后使用DogsVSCats数据集进行测试。实验结果表明,深度迁移学习算法在小批量样本数据中具有更高的准确性。  相似文献   

6.
目前深度学习在医学图像分析领域取得的良好表现大多取决于高质量带标注的数据集, 但是医学图像由于其专业性和复杂性, 数据集的标注工作往往需要耗费巨大的成本. 本文针对这一问题设计了一种基于深度主动学习的半自动标注系统, 该系统通过主动学习算法减少训练深度学习标注模型所需的标注样本数量, 训练完成后的标注模型可以用于剩余数据集的标注工作. 系统基于Web应用构建, 无需安装且能跨平台访问, 便于用户完成标注工作.  相似文献   

7.
<正>模式识别和人工智能领域60多年来的研究取得了巨大进展。尤其是近年来快速发展的深度学习(深度神经网络)方法,在视觉模式识别、语音识别、自然语言处理、博弈等智能感知和认知问题上都取得了超过传统的基于人工特征和知识规则的方法的性能,甚至超过人类水平。深度学习相比传统模式识别方法的最大特点是从数据自动学习具有很强判别性和表示能力的特征,从而得到很高的分类性能。然而,这些成功大多依赖于传统机器学习的三个基本假设:封闭世界假设(类别集固定)、  相似文献   

8.
目标跟踪技术根据视频上下文信息,建立一个跟踪模型对目标的运动状态进行预测,被广泛用于智能视频监控、自动驾驶、机器人导航、人机交互等多个计算机视觉领域。随着深度学习在语音识别,图像分类以及目标检测等领域的巨大成功,越来越多的研究将深度学习框架应用于目标跟踪任务中。介绍了当前单目标跟踪任务的难点和传统的方法,重点分析了当前基于深度学习的单目标跟踪算法的发展现状,从预训练网络+相关滤波算法、基于孪生网络的方法、基于卷积神经网络的方法、基于生成对抗网络的方法以及其他深度学习方法几个方面,分别对当前流行的深度学习目标跟踪算法进行了概述。此外,总结了用于评测单目标跟踪算法性能的代表性数据集,列举了最新的研究成果在不同数据集上的实验结果并分析了当前单目标跟踪领域的问题和趋势。  相似文献   

9.
深度学习在提取数据特征方面取得了巨大的成功,尤其是在处理节点间关系信息丰富的图数据时,通过在频域上使用图滤波器进行图卷积操作,设计出了多种图神经网络。这些图神经网络主要关注设计固定的滤波器或学习简单的滤波器,但这种对滤波器的简化可能会导致滤波器不能适用于所有的图数据。为了解决上述问题,提出了一种基于元学习和图滤波器的节点分类模型MGCN,以提高图滤波器的普适性。模型利用元学习为图卷积神经网络(GCN)的滤波器学习了一组初始化权重,在对滤波器的权重进行微调之后,模型可以快速地适应新任务。为了验证MGCN的有效性,在6个基线数据集上进行了大量实验。实验结果表明,提出的模型相比于传统图神经网络模型可以适用于更加广泛的图数据。  相似文献   

10.
脉冲神经网络(SNN)采用脉冲序列表征和传递信息,与传统人工神经网络相比更具有生物可解释性,但典型SNN的特征提取能力受到其结构限制,对于图像数据等多分类任务的识别准确率不高,不能与卷积神经网络相媲美。为此提出一种新型的自适应编码脉冲神经网络(SCSNN),将CNN的特征提取能力与SNN的生物可解释性结合起来,采用生物神经元动态脉冲触发特性构建网络结构,并设计了一种新的替代梯度反向传播方法直接训练网络参数。所提出的SCSNN分别在MNIST和Fashion-MNIST数据集进行验证,取得较好的识别结果,在MNIST数据集上准确率达到了99.62%,在Fashion-MNIST数据集上准确率达到了93.52%,验证了其有效性。  相似文献   

11.
近年来深度学习发展迅猛。由于深度学习的概念源于神经网络,而激活函数更是神经网络模型在学习理解非线性函数时不可或缺的部分,因此本文对常用的激活函数进行了研究比较。针对常用的激活函数在反向传播神经网络中具有收敛速度较慢、存在局部极小或梯度消失的问题,将Sigmoid系和ReLU系激活函数进行了对比,分别讨论了其性能,详细分析了几类常用激活函数的优点及不足,并通过研究Arctan函数在神经网络中应用的可能性,结合ReLU函数,提出了一种新型的激活函数ArcReLU。实验证明,该函数既能显著加快反向传播神经网络的训练速度,又能有效降低训练误差并避免梯度消失的问题。  相似文献   

12.
深度学习应用技术研究   总被引:2,自引:0,他引:2  
本文针对深度学习应用技术进行了研究性综述。详细阐述了RBM(Restricted Boltzmann Machine)逐层预训练后再用BP(back-propagation)微调的深度学习贪婪层训练方法,对比分析了BP算法中三种梯度下降的方式,建议在线学习系统,采用随机梯度下降,静态离线学习系统采用随机小批量梯度下降;归纳总结了深度学习深层结构特征,并推荐了目前最受欢迎的5层深度网络结构设计方法。分析了前馈神经网络非线性激活函数的必要性及常用的激活函数优点,并推荐ReLU (rectified linear units)激活函数。最后简要概括了深度CNNs(Convolutional Neural Networks), 深度RNNs(recurrent neural networks), LSTM(long short-termmemory networks)等新型深度网络的特点及应用场景,并归纳总结了当前深度学习可能的发展方向。  相似文献   

13.
Deep learning: an overview and main paradigms   总被引:1,自引:0,他引:1  
In the present paper, we examine and analyze main paradigms of learning of multilayer neural networks starting with a single layer perceptron and ending with deep neural networks, which are considered regarded as a breakthrough in the field of the intelligent data processing. The baselessness of some ideas about the capacity of multilayer neural networks is shown and transition to deep neural networks is justified. We discuss the principal learning models of deep neural networks based on the restricted Boltzmann machine (RBM), an autoassociative approach and a stochastic gradient method with a Rectified Linear Unit (ReLU) activation function of neural elements.  相似文献   

14.
Current improvements in the performance of deep neural networks are partly due to the proposition of rectified linear units. A ReLU activation function outputs zero for negative component, inducing the death of some neurons and a bias shift of the outputs, which causes oscillations and impedes learning. According to the theory that “zero mean activations improve learning ability”, a softplus linear unit (SLU) is proposed as an adaptive activation function that can speed up learning and improve performance in deep convolutional neural networks. Firstly, for the reduction of the bias shift, negative inputs are processed using the softplus function, and a general form of the SLU function is proposed. Secondly, the parameters of the positive component are fixed to control vanishing gradients. Thirdly, the rules for updating the parameters of the negative component are established to meet back- propagation requirements. Finally, we designed deep auto-encoder networks and conducted several experiments with them on the MNIST dataset for unsupervised learning. For supervised learning, we designed deep convolutional neural networks and conducted several experiments with them on the CIFAR-10 dataset. The experiments have shown faster convergence and better performance for image classification of SLU-based networks compared with rectified activation functions.  相似文献   

15.
通过对Normalization、优化器、激活函数三方面对AlexNet卷积神经网络进行了改进及优化。针对LRN(Local Response Normalization)不存在可学习参数,提出了用WN(Weight Normalization)来代替LRN,同时将WN置于所有池化层(Pooling layer)之后,提高了AlexNet模型训练的准确率;通过对比分析Adam、RMSProp、Momentum三种优化器在不同学习率(Learning rate)下对AlexNet模型训练的影响,并得出了相应的学习率的优化区间,提高了AlexNet在Optimizer的学习率区间选择上的准确性;针对AlexNet中ReLU激活函数存在的部分权重无法更新以及梯度爆炸问题,提出了ReLU6与Swish的融合分段函数算法,提升了AlexNet模型训练收敛速度以及准确率的同时也缓解了过拟合现象的发生。  相似文献   

16.
杜进  陈云华  张灵  麦应潮 《计算机科学》2018,45(9):303-307, 319
为了提高表情识别率并降低表情识别的功耗,提出一种基于改进深度残差网络的表情识别方法。残差学习在解决深度卷积神经网络退化问题、使网络层次大幅加深的同时,进一步增加了网络的功耗。为此,引入具有生物真实性的激活函数来代替已有的整流线性单元(Rectified Linear Units,ReLU)函数, 并将其作为卷积层激活函数对深度残差网络进行改进。该方法不仅提高了残差网络的精度,而且训练出的网络权重可直接作为与该深度残差网络具有相同结构的深度脉冲神经网络的权重。将该深度脉冲神经网络部署在类脑硬件上时,其能够以较高的识别率和较低的能耗进行表情识别。  相似文献   

17.
基于深度学习的高噪声图像去噪算法   总被引:1,自引:0,他引:1  
盖杉  鲍中运 《自动化学报》2020,46(12):2672-2680
为了更有效地实现高噪声环境下的图像去噪, 本文提出一种基于深度学习的高噪声图像去噪算法.该算法首先采用递增扩充卷积并且融合批量标准化和Leaky ReLU函数对输入含噪图像进行特征提取与学习; 然后通过结合递减扩充卷积和ReLU函数对提取的特征进行图像重构; 最后通过整合残差学习和批量标准化的端到端网络实现图像与噪声的有效分离.实验结果表明, 本文提出的算法不仅能够有效地去除高噪声环境下的图像噪声, 获得更高的峰值信噪比(Peak signal-to-noise ratio, PSNR)与结构相似度(Structural similarity index, SSIM), 而且还能够有效地改善图像的视觉效果, 具有较好的实用性.  相似文献   

18.
针对传统机器学习需要人工构建特征及特征质量较低等问题,提出一种新颖的基于一维卷积神经网络(Convolutional Neural Network,CNN)的特征提取方法。采用编码思想,由卷积层和下采样层构成编码器网络提取脑电信号情感特征,随后与特征图一起输入Leaky ReLU激活函数。对于卷积预训练过程,使用交叉熵和正则化项双目标优化损失函数,之后采用随机森林分类器以获得情感分类标签。在国际公开数据集SEED上进行实验,达到94.7%的情感分类准确率,实验结果表明了该方法的有效性和鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号