共查询到18条相似文献,搜索用时 265 毫秒
1.
2.
针对污水处理中某些生物参数难以在线测量的情况,本文提出了一种基于小波核的多尺度最小二乘小波支持向量机软测量建模方法:。首先,选取墨西哥草帽小波函数作为最小二乘支持向量机的核函数,进而设计出多尺度小波最小二乘支持向量回归机(MW-LSSVR)。然后利用该支持向量机和出水水质参数特性建立混合软测量模型,实现对出水BOD浓度、COD浓度在线预测。通过在实际污水处理过程的应用,结果:表明本建模方法:具有较高的预测精度和较快的模型学习速度,能对BOD的做出准确的预测,一定程度上可以替代某些昂贵的在线测量仪表,给污水处理厂工作人员提供了控制操作依据,具有一定的实际应用价值。 相似文献
3.
针对海洋微生物低温碱性脂肪酶发酵过程中的关键生物参数(如菌体浓度、葡萄糖浓度等)难以在线检测,提出了一种基于贝叶斯证据框架下的加权最小二乘支持向量机(WLS-SVM)的建模方法.首先,对生物参数进行非线性建模分析,确定软测量模型的辅助变量.然后,应用训练样本集对最小二乘支持向量机进行训练,训练过程中运用贝叶斯证据框架下的三层推断确定模型的最优权向量、最优正则化参数、最优核参数.为了提高模型的鲁棒性,根据误差变量确定权重系数,建立了在发酵过程中可准确预测生物参数的WLS-SVM模型.试验仿真中与传统最小二乘支持向量机模型进行对比,结果表明,基于贝叶斯证据框架下的加权最小二乘支持向量机模型具有计算速度快、泛化能力强、预测精度高等特点. 相似文献
4.
5.
最小二乘支持向量机建模及应用 总被引:1,自引:0,他引:1
在白酒酿制过程中,淀粉的利用率是一个重要而又难测的质量参数.工业多采用化学分析法进行测量,但是该方法需要离线测量,且存在耗时长、误差大的缺陷.针对此问题,提出粒子群优化最小二乘支持向量机回归方法实现淀粉利用率的在线预测.根据酿酒发酵过程的离线数据,建立最小二乘支持向量机回归模型,采用粒子群算法对模型参数进行优化.仿真结果表明,所提方法建立的模型对于淀粉利用率的预测具有较高的预测精度及泛化能力,是一种解决淀粉利用率难测问题的好方法. 相似文献
6.
青霉素发酵过程具有较强的非线性、时变性和不确定性,发酵过程中的基质浓度、青霉素菌体浓度、产物浓度等关键生物参数难以实时在线测量,而离线化验存在时滞大的问题,难以满足实时在线控制的要求。针对这一问题,提出了一种基于核主成分分析(KPCA)与支持向量机回归(SVR)的软测量建模方法。首先,利用KPCA提取软测量输入数据空间中的非线性主成分;然后,采用SVR算法建立了可准确预测青霉素发酵过程重要参数的软测量模型。试验结果表明,与传统建模方法相比,KPCA-SVR软测量模型的测量精度高、跟踪性能好、泛化能力强,能满足发酵过程中青霉素菌丝浓度的在线测量要求,是一种有效的软测量建模方法。 相似文献
7.
针对工业过程中某些重要过程变量难以实现实时在线检测和高维数据处理的问题,提出了将主元分析与改进的最小二乘支持向量机相结合的软测量建模方法,建立了催化裂化主分馏塔柴油凝固点的软测量模型。最小二乘支持向量机与标准支持向量机相比,失去了“稀疏性”,最小二乘支持向量机的稀疏化方法解决了这一难题;主元分析方法的引入,有效地提高了最小二乘支持向量机软测量模型的精度和泛化能力。应用结果表明,该改进的PCA—LS-SVM方法具有学习速度快、跟踪性能好以及泛化能力强等优点。 相似文献
8.
9.
针对工业过程中某些重要过程变量难以实现实时在线检测和高维数据处理的问题,提出了将主元分析与改进的最小二乘支持向量机相结合的软测量建模方法,建立了催化裂化主分馏塔柴油凝固点的软测量模型。最小二乘支持向量机与标准支持向量机相比,失去了"稀疏性",最小二乘支持向量机的稀疏化方法解决了这一难题;主元分析方法的引入,有效地提高了最小二乘支持向量机软测量模型的精度和泛化能力。应用结果表明,该改进的PCA- LS-SVM方法具有学习速度快、跟踪性能好以及泛化能力强等优点。 相似文献
10.
11.
针对最小二乘支持向量机存在的稀疏性欠缺和单核函数局限性问题,本文提出一种基于混合核函数稀疏最小二乘支持向量机的软测量建模方法.该方法使用多项式核函数和RBF核函数线性加权构成混合核函数,兼顾最小二乘支持向量机的全局拟合能力与局部拟合能力,以矢量基学习作为稀疏解算法,改善最小二乘支持向量机的稀疏性,在精简模型结构的同时,避免冗余信息中的噪声过多的拟合到模型参数中,进而采用粒子群算法优化模型部分参数.将此方法分别应用于Mackey- Glasss混沌模型的时间序列预测和乙烯精馏塔塔釜乙烯浓度预测,应用结果表明该方法较最小二乘支持向量机、稀疏最小二乘支持向量机以及混合核最小二乘支持向量机具有更好的泛化效果和预报精度,兆示出其良好的应用潜力. 相似文献
12.
针对火电厂双进双出钢球磨直吹式制粉系统出力较难直接测量的问题,本文在Suykens的最小二乘支持向量机(least squares support vector machine,LS-SVM)稀疏化算法的基础上,提出了一种更好的改进方式,并将改进后的LS-SVM算法对双进双出钢球磨直吹式制粉系统出力建立软测量模型,通过对算法改进前后模型仿真结果的对比分析可知,改进后的LS-SVM算法学习收敛速度更快,误差更小,更加适用于在线学习,并为制粉系统的在线优化控制打下了良好的基础。 相似文献
13.
To improve the robustness of the traditional inverse system method, the internal model control based on a novel least square
support vector machines (LS-SVM) is proposed. The novel LS-SVM considers general errors that include noises of input variables
and output variables as empirical errors. The data of original MIMO discrete system is exploited to approximate its inverse
model by the novel LS-SVM. By cascading the inverse model and the original system to constitute a decoupling pseudo-linear
system, the internal model control strategy is carried out to the pseudo-linear system to realize the effective control. Simulation
validates that the novel LS-SVM used in the inverse system identification is effective and shows that the internal model control
of nonlinear discrete systems has better robustness of anti-interference and parameters varying than that of the open-loop
system only based on inverse control. 相似文献
14.
一种基于全局代表点的快速最小二乘支持向量机稀疏化算法 总被引:3,自引:0,他引:3
非稀疏性是最小二乘支持向量机(Least squares support vector machine,LS-SVM)的主要不足,因此稀疏化是LS-SVM研究的重要内容.在目前LS-SVM稀疏化研究中,多数算法采用的是基于迭代选择的稀疏化策略,但是时间复杂度和稀疏化效果还不够理想.为了进一步改进LS-SVM稀疏化方法的性能,文中提出了一种基于全局代表点选择的快速LS-SVM稀疏化算法(Global-representation-based sparse least squares support vector machine,GRS-LSSVM).在综合考虑数据局部密度和全局离散度的基础上,给出了数据全局代表性指标来评估每个数据的全局代表性.利用该指标,在全部数据中,一次性地选择出其中最具有全局代表性的数据并构成稀疏化后的支持向量集,然后在此基础上求解决策超平面,是该算法的基本思路.该算法对LS-SVM的非迭代稀疏化研究进行了有益的探索.通过与传统的迭代稀疏化方法进行比较,实验表明GRS-LSSVM具有稀疏度高、稳定性好、计算复杂度低的优点. 相似文献
15.
16.
Xiangyan Zeng Xue-wen Chen 《Neural Networks, IEEE Transactions on》2005,16(6):1541-1546
Solutions of least squares support vector machines (LS-SVMs) are typically nonsparse. The sparseness is imposed by subsequently omitting data that introduce the smallest training errors and retraining the remaining data. Iterative retraining requires more intensive computations than training a single nonsparse LS-SVM. In this paper, we propose a new pruning algorithm for sparse LS-SVMs: the sequential minimal optimization (SMO) method is introduced into pruning process; in addition, instead of determining the pruning points by errors, we omit the data points that will introduce minimum changes to a dual objective function. This new criterion is computationally efficient. The effectiveness of the proposed method in terms of computational cost and classification accuracy is demonstrated by numerical experiments. 相似文献
17.
基于LS-SVM的传感器智能校正及温度补偿 总被引:1,自引:0,他引:1
提出一种基于最小二乘支持向量机(LS-SVM)的传感器非线性校正及温度补偿的新方法,并给出了相应的过程和算法。在该方法中,LS-SVM被用作构建逆模型,并通过该模型映射传感器非线性特性,同时实现了传感器的温度补偿和非线性校正。通过实际电容式压力传感器校正的实验结果表明:所提模型建模速度比SVM模型高1~2个数量级,补偿误差仅为SVM模型的20%左右。因此,该学习速度快、补偿精度高、抗噪声干扰能力强,适合传感器温度补偿及校正。 相似文献
18.
Least squares support vector machine (LS-SVM) is a successful method for classification or regression problems, in which the margin and sum square errors (SSEs) on training samples are simultaneously minimized. However, LS-SVM only considers the SSEs of input variable. In this paper, a novel normal least squares support vector machine (NLS-SVM) is proposed, which effectively considers the noises on both input and response variables. It introduces a two-stage learning method to solve NLS-SVM. More importantly, a fast iterative updating algorithm is presented, which reaches the solution of NLS-SVM with lower computational complexity instead of directly adopting the two-stage learning method. Several experiments on artificial and real-world datasets are simulated, in which the results show that NLS-SVM outperforms LS-SVM. 相似文献