首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 93 毫秒
1.
联想记忆网络的约束优化学习   总被引:2,自引:0,他引:2  
汪涛  俞瑞钊 《计算机学报》1995,18(12):886-892
本文提出了一种联想记忆网络的约束优化学习算法,学习算法是一个全局最小化过程,其初始解保证每个样本是系统的稳定状态,然后逐步增大样本的吸引域,使网络具有优化意义上的最大吸引域,在理论上,我们分析了样本的渐近稳定性和吸引域范围,以及学习算法的收敛性,大量计算机实验结果说明学习算法是行之有效的。  相似文献   

2.
根据Madaline网络工作原理,针对其网络特点和现有算法中存在的缺点,提出将MRⅡ算法与感知机学习规则相结合的改进的学习算法,使每个样本学习后权值的改动尽量小,从而减少它对其它样本学习产生的影响,达到提高网络学习能力的目的。  相似文献   

3.
深度学习中神经网络的性能依赖于高质量的样本,然而噪声标签会降低网络的分类准确率。为降低噪声标签对网络性能的影响,噪声标签学习算法被提出。该算法首先将训练样本集划分成干净样本集和噪声样本集,然后使用半监督学习算法对噪声样本集赋予伪标签。然而,错误的伪标签以及训练样本数量不足的问题仍然限制着噪声标签学习算法性能的提升。为解决上述问题,提出基于K-means聚类和特征空间增强的噪声标签深度学习算法。首先,该算法利用K-means聚类算法对干净样本集进行标签聚类,并根据噪声样本集与聚类中心的距离大小筛选出难以分类的噪声样本,以提高训练样本的质量;其次,使用mixup算法扩充干净样本集和噪声样本集,以增加训练样本的数量;最后,采用特征空间增强算法抑制mixup算法新生成的噪声样本,从而提高网络的分类准确率。并在CIFAR10、CIFAR100、MNIST和ANIMAL-10共4个数据集上试验验证了该算法的有效性。  相似文献   

4.
为改善传统分类算法在小样本遥感图像分类上效果差的缺陷,提升模型的快速学习能力,提出融合迁移学习和元学习的小样本分类算法.设计基于长短期记忆网络的元学习器,通过门控结构拟合网络参数更新方式最下化损失下界,具有自动学习分类器参数更新方式的机制,相比于传统方法,能够有效扩展优化算法的搜索空间;考虑样本的跨类别知识转移和训练时...  相似文献   

5.
深度学习的成功依赖于海量的训练数据,然而获取大规模有标注的数据并不容易,成本昂贵且耗时;同时由于数据在不同场景下的分布有所不同,利用某一特定场景的数据集所训练出的模型往往在其他场景表现不佳。迁移学习作为一种将知识从一个领域转移到另一个领域的方法,可以解决上述问题。深度迁移学习则是在深度学习框架下实现迁移学习的方法。提出一种基于伪标签的深度迁移学习算法,该算法以ResNet-50为骨干,通过一种兼顾置信度和类别平衡的样本筛选机制为目标域样本提供伪标签,然后进行自训练,最终实现对目标域样本准确分类,在Office-31数据集上的三组迁移学习任务中,平均准确率较传统算法提升5.0%。该算法没有引入任何额外网络参数,且注重源域数据隐私,可移植性强,具有一定的实用价值。  相似文献   

6.
本文提出一种基于半监督主动学习的算法,用于解决在建立动态贝叶斯网络(DBN)分类模型时遇到的难以获得大量带有类标注的样本数据集的问题.半监督学习可以有效利用未标注样本数据来学习DBN分类模型,但是在迭代过程中易于加入错误的样本分类信息,并因而影响模型的准确性.在半监督学习中借鉴主动学习,可以自主选择有用的未标注样本来请求用户标注.把这些样本加入训练集之后,能够最大程度提高半监督学习对未标注样本分类的准确性.实验结果表明,该算法能够显著提高DBN学习器的效率和性能,并快速收敛于预定的分类精度.  相似文献   

7.
传统机器学习方法泛化性能不佳,需要通过大规模数据训练才能得到较好的拟合结果,因此不能快速学习训练集外的少量数据,对新种类任务适应性较差,而元学习可实现拥有类似人类学习能力的强人工智能,能够快速适应新的数据集,弥补机器学习的不足。针对传统机器学习中的自适应问题,利用样本图片的局部旋转对称性和镜像对称性,提出一种基于群等变卷积神经网络(G-CNN)的度量元学习算法,以提高特征提取能力。利用G-CNN构建4层特征映射网络,根据样本图片中的局部对称信息,将支持集样本映射到合适的度量空间,并以每类样本在度量空间中的特征平均值作为原型点。同时,通过同样的映射网络将查询机映射到度量空间,根据查询集中样本到原型点的距离完成分类。在Omniglot和miniImageNet数据集上的实验结果表明,该算法相比孪生网络、关系网络、MAML等传统4层元学习算法,在平均识别准确率和模型复杂度方面均具有优势。  相似文献   

8.
针对贝叶斯网络连续节点离散化后,概念知识表达存在模糊性和随机性的问题,提出一种将云模型与EM(Expectations Maximization)算法相结合的贝叶斯网络参数学习算法。首先运用启发式高斯云变换算法(Heuristic Gaussian Cloud Transformation)和云发生器将连续节点定量样本转换成定性概念,并记录下样本对所属概念的确定度,运用确定度概率转换公式将确定度转换成相应概率;随后复制扩充样本并按概率选择所属概念;样本更新后结合EM算法进行参数优化,实现贝叶斯网络的参数学习。仿真实验结果表明,通过云模型表征概念得到的参数学习结果更加符合实际情况,参数学习精度和网络推理准确性得到了提高。  相似文献   

9.
多层反馈神经网络的FP学习和综合算法   总被引:19,自引:1,他引:19  
张铃  张钹 《软件学报》1997,8(4):252-258
本文给出多层反馈神经网络的FP学习和综合算法,并讨论此类网络的性质,指出将它应用于聚类分析能给出不粒度的聚类,且具有收敛速度快(是样本个数的线性函数)、算法计算量少(是样本个数和输入、输出维数的双线性函数)、网络元件个数少、权系数简单(只取3个值)、网络容易硬件实现等优点.作为聚类器的神经网络的学习和综合问题已得到较圆满地解决.  相似文献   

10.
针对逆强化学习算法在训练初期由于专家样本稀疏所导致的学习速率慢的问题,提出一种基于生成对抗网络(Generative Adversarial Networks,GAN)的最大熵逆强化学习算法。在学习过程中,结合专家样本训练优化生成对抗网络,以生成虚拟专家样本,在此基础上利用随机策略生成非专家样本,构建混合样本集,结合最大熵概率模型,对奖赏函数进行建模,并利用梯度下降方法求解最优奖赏函数。基于所求解的最优奖赏函数,利用正向强化学习方法求解最优策略,并在此基础上进一步生成非专家样本,重新构建混合样本集,迭代求解最优奖赏函数。将所提出的算法与MaxEnt IRL算法应用于经典的Object World与Mountain Car问题,实验表明,该算法在专家样本稀疏的情况下可以较好地求解奖赏函数,具有较好的收敛性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号