共查询到20条相似文献,搜索用时 156 毫秒
1.
一种基于启发式奖赏函数的分层强化学习方法 总被引:4,自引:0,他引:4
针对强化学习在应用中经常出现的维数灾问题,即状态空间的大小随着特征数量的增加而发生指数级的增长,以及收敛速度过慢的问题,提出了一种基于启发式奖赏函数的分层强化学习方法.该方法不仅能够大幅度减少环境状态空间,还能加快学习的收敛速度.将此算法应用到俄罗斯方块的仿真平台中,通过对实验中的参数进行设置及对算法性能进行分析,结果表明:采用启发式奖赏函数的分层强化学习方法能在一定程度上解决维数灾问题,并具有很好的收敛速度. 相似文献
2.
在大规模状态空间或者连续状态空间中,将函数近似与强化学习相结合是当前机器学习领域的一个研究热点;同时,在学习过程中如何平衡探索和利用的问题更是强化学习领域的一个研究难点.针对大规模状态空间或者连续状态空间、确定环境问题中的探索和利用的平衡问题,提出了一种基于高斯过程的近似策略迭代算法.该算法利用高斯过程对带参值函数进行建模,结合生成模型,根据贝叶斯推理,求解值函数的后验分布.在学习过程中,根据值函数的概率分布,求解动作的信息价值增益,结合值函数的期望值,选择相应的动作.在一定程度上,该算法可以解决探索和利用的平衡问题,加快算法收敛.将该算法用于经典的Mountain Car 问题,实验结果表明,该算法收敛速度较快,收敛精度较好. 相似文献
3.
为解决人工蜂群算法收敛速度慢的问题,根据OL(正交学习)的特点,在最大化利用函数评价次数的前提下,对每次参与正交学习的维数进行优化,提出QOL(四分之一正交学习)方法.在此基础上,将随机选择与精英引导方法结合用于维的选择,保持探索能力的同时,加快收敛速度.QOL方法位于每一代搜索的末尾,方便嵌入ABC算法.在22个基准函数上的实验结果表明,QOL方法可以显著提高人工蜂群算法的求解精度、鲁棒性和收敛速度. 相似文献
4.
支持向量回归问题的研究,对函数拟合(回归逼近)具有重要的理论和应用意义.借鉴分类问题的有效算法,将其推广到回归问题中来,针对用于分类问题的SOR支持向量机有效算法,提出了SORR支持向量回归算法.在若干不同维数的数据集上,对SORR算法、ASVR算法和LibSVM算法进行数值试验,并进行比较分析.数值实验结果表明,SORR算法是有效的,与当前流行的支持向量机回归算法相比,在回归精度和学习速度上都有一定的优势. 相似文献
5.
一种回归神经网络的快速在线学习算法 总被引:11,自引:0,他引:11
针对回归神经网络BP学习算法收敛慢的缺陷,提出了一种新的快速在线递推学习算法.本算法在目标函数中引入了遗忘因子,并借助于非线性系统的最大似然估计原理成功地解决了动态非线性系统回归神经网络模型权系数学习的实时性和快速性问题.仿真结果表明,该算法比传统的回归BP学习算法具有更快的收敛速度. 相似文献
6.
7.
针对标准人工蜂群算法搜索效率低、收敛速度慢等缺点提出一种改进的人工蜂群算法.通过引入算术交叉操作以及利用最优解指导搜索方向,增加算法收敛的速度.在7个基准函数上的测试结果表明了算法的有效性.在此基础上,针对K-means算法的缺点提出基于改进蜂群算法的K-means算法,并加入自动获得最佳聚类数的功能.在人工数据集和UCI真实数据集上的测试验证了所提出算法的性能. 相似文献
8.
BP算法是神经网络中最常用的算法之一.标准BP算法存在的最主要问题就是易于陷入局部极小、收敛速度慢等问题.针对BP算法的这些问题,出现了许多改进的措施,如引入变步长法、加动量项法等.提出了一种基于样本期望训练数的改进BP算法,仿真实验说明了该算法可以明显提高BP网络学习速度,并且具有简单通用性,可以和其他方法结合,进一步提高算法的收敛速度. 相似文献
9.
10.
基于次梯度的L1正则化Hinge损失问题求解研究 总被引:1,自引:0,他引:1
Hinge损失函数是支持向量机(support vector machines, SVM)成功的关键,L1正则化在稀疏学习的研究中起关键作用.鉴于两者均是不可导函数,高阶梯度信息无法使用.利用随机次梯度方法系统研究L1正则化项的Hinge损失大规模数据问题求解.首先描述了直接次梯度方法和投影次梯度方法的随机算法形式,并对算法的收敛性和收敛速度进行了理论分析.大规模真实数据集上的实验表明,投影次梯度方法对于处理大规模稀疏数据具有更快的收敛速度和更好的稀疏性.实验进一步阐明了投影阈值对算法稀疏度的影响. 相似文献
11.
XU ZongBen ZHANG YongQuan & CAO FeiLong Institute for Information System Sciences Xi’an Jiaotong University Xi’an China; MOE Key Labratory for Intelligent Networks Network Security Xi’an Jiaotong University Xi’an China; 《中国科学:信息科学(英文版)》2012,(3):701-713
In many applications, the pre-information on regression function is always unknown. Therefore, it is necessary to learn regression function by means of some valid tools. In this paper we investigate the regression problem in learning theory, i.e., convergence rate of regression learning algorithm with least square schemes in multi-dimensional polynomial space. Our main aim is to analyze the generalization error for multi-regression problems in learning theory. By using the famous Jackson operators in approximation theory, covering number, entropy number and relative probability inequalities, we obtain the estimates of upper and lower bounds for the convergence rate of learning algorithm. In particular, it is shown that for multi-variable smooth regression functions, the estimates are able to achieve almost optimal rate of convergence except for a logarithmic factor. Our results are significant for the research of convergence, stability and complexity of regression learning algorithm. 相似文献
12.
Yongquan ZhangAuthor VitaeFeilong CaoAuthor Vitae Zongben XuAuthor Vitae 《Neurocomputing》2011,74(4):516-521
In this paper, regression problem in learning theory is investigated by least square schemes in polynomial space. Results concerning the estimation of rate of convergence are derived. In particular, it is shown that for one variable smooth regression function, the estimation is able to achieve good rate of convergence. As a main tool in the study, the Jackson operator in approximation theory is used to estimate the rate. Finally, the obtained estimation is illustrated by applying simulated data. 相似文献
13.
Support vector regression (SVR) is a powerful learning technique in the framework of statistical learning theory, while Kriging
is a well-entrenched prediction method traditionally used in the spatial statistics field. However, the two techniques share
the same framework of reproducing kernel Hilbert space. In this paper, we first review the formulations of SILF-SVR where
soft insensitive loss function is utilized and ordinary Kriging, and then prove the equivalence between the two techniques
under the assumption that the kernel function is substituted by covariance function. 相似文献
14.
15.
支持向量机训练和实现算法综述 总被引:28,自引:2,他引:26
支持向量机是在统计学习理论基础上发展起来的一种新的机器学习方法,支持向量机已成为目前研究的热点,并在模式识别、回归分析、函数估计等领域有了广泛的应用。该文在介绍了支持向量机的目前研究、应用状况和新进展的基础上,对支持向量机训练和实现算法进行了综述,最后指出了进一步研究和应用亟待解决的一些问题。 相似文献
16.
随机模糊神经网络的结构学习算法研究 总被引:1,自引:1,他引:0
基于输入层、隐层、输出层相互关系准则函数的随机模糊神经网络结构学习算法,综合考虑了输入、输出信号对隐层函数的影响。此算法的一个关键的问题是如何确定随机模糊神经网络的最佳隐层节点数。本文给出了确定最佳规则数的一般方法,并根据结果给出了相应的仿真实例。 相似文献
17.
Fuzzy Regression Analysis by Support Vector Learning Approach 总被引:1,自引:0,他引:1
Pei-Yi Hao Jung-Hsien Chiang 《Fuzzy Systems, IEEE Transactions on》2008,16(2):428-441
Support vector machines (SVMs) have been very successful in pattern classification and function approximation problems for crisp data. In this paper, we incorporate the concept of fuzzy set theory into the support vector regression machine. The parameters to be estimated in the SVM regression, such as the components within the weight vector and the bias term, are set to be the fuzzy numbers. This integration preserves the benefits of SVM regression model and fuzzy regression model and has been attempted to treat fuzzy nonlinear regression analysis. In contrast to previous fuzzy nonlinear regression models, the proposed algorithm is a model-free method in the sense that we do not have to assume the underlying model function. By using different kernel functions, we can construct different learning machines with arbitrary types of nonlinear regression functions. Moreover, the proposed method can achieve automatic accuracy control in the fuzzy regression analysis task. The upper bound on number of errors is controlled by the user-predefined parameters. Experimental results are then presented that indicate the performance of the proposed approach. 相似文献
18.
19.
支持向量机是一种基于统计学习理论的新颖的机器学习方法,该方法已经广泛用于解决分类与回归问题。标准的支持向量机算法需要解一个二次规划问题,当训练样本较多时,其运算速度一般很慢。为了提高运算速度,介绍了一种基于线性规划的支持向量回归算法,并由此提出几种新的回归模型,同时将它们应用到混沌时间序列预测中,并比较了它们的预测性能。在实际应用中,可以根据具体情况灵活地选择所需模型。 相似文献
20.
传统支持向量机是近几年发展起来的一种基于统计学习理论的学习机器,在非线性函数回归估计方面有许多应用。最小二乘支持向量机用等式约束代替传统支持向量机方法中的不等式约束,利用求解一组线性方程得出对象模型,避免了求解二次规划问题。本文采用最小二乘支持向量机解决了航空煤油干点的在线估计问题,结果表明,最小二乘支持向量机学习速度快、精度高,是一种软测量建模的有效方法。在相同样本条件下,比RBF网络具有较好的模型逼近性和泛化性能,比传统支持向量机可节省大量的计算时间。 相似文献