首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
自适应模糊神经网络控制器设计的线性化方法   总被引:7,自引:0,他引:7  
基于T-S模糊推理系统模型构造一个简化形式的Fuzzy神经网络(FNN),应用Stone-Weierstrass逼近定理证明了这种FNN网络对非线性连续函数的全局逼近性质,并利用Clarke一步加权最优预报控制性能指标及前向FNN网络辨识器模型的线性化思想,提出一种间接Fuzzy神经网络自适应控制算法,仿真结果证实了该算法的有效性。  相似文献   

2.
随着人工神经网络(ANN)理论和技术的不断发展,人们加深对高阶神经网络映射能力的。本文对高阶神经网络实现有限集A包含于R^n→有限集B包含于R的函数逼近问题进行了上的研究,得出了高阶神经网络可以实现有限集到有限集函数逼近的结论。  相似文献   

3.
小波神经网络逼近能力及Thau 定理推广   总被引:6,自引:1,他引:5  
李力  方华京 《控制与决策》2000,15(5):561-564
首先提出神经元数目有限的小波神经网络对一大类Lipschitz函数的逼近能力定理;然后对Thau定理进行推广,得到几个实用性较强的推广定理;最后通过构造一种基于推广Thau定理的小波神经网络非线性观测器,展示出该逼近定理的应用前景。  相似文献   

4.
多变元周期函数的神经网络逼近:逼近阶估计   总被引:9,自引:3,他引:6  
该文证明具有三角隐层单元的三层前向神经网络逼近多变元周期函数速度的上界估计、下界估计和饱和定理,揭示该类神经网络之隐层单元数与网络逼 近速度、逼近函数结构之间的关系,特别指出二阶光滑模为该类神经网络的本质逼近阶,并且当被逼近函数属于二阶Lipschitz函数类时,该类神经网络的逼近能力完全取决于被逼近函数的光滑性,文中也证明了该类神经网络的最大逼近能力以及达到最大逼近能力的一个充分必要条件,该文所获结果对于澄清该类神经网络的函数逼近能力与应用有重要指导意义。  相似文献   

5.
基于正交多项式函数的神经网络及其性质研究   总被引:5,自引:0,他引:5  
神经网络的非线性逼近能力的研究是神经网络研究中的一个热点问题。该文提出了基于正交多项式函数的神经网络构造理论,以此为基础提出了基于正交多项式函数的神经网络的构造方法,利用Stone-Weierstrass定理从理论上证明了基于正交多项式函数的神经网络具有能以任意精度逼近任意紧集上的连续函数的全局逼近性质,最后,提出了基于正交多项式函数的神经网络的选择和评价方法,研究表明,在一定条件下,当选择Chebyshev多项式时,所构造出的神经网络性能最优。  相似文献   

6.
一类用于连续过程逼近的过程神经元网络及其应用   总被引:1,自引:0,他引:1  
针对实际系统的输入输出是与时间有关的连续过程,提出了一类用于连续过程逼近的过程神经元网络模型.模型利用神经网络所具有的非线性映射能力,实现系统输入输出之间的连续映射关系.考虑过程神经网络计算的复杂性,在输入空间中选择一组函数正交基,将输入函数和网络权函数表示为该组正交基的展开形式,利用基函数的正交性,简化过程神经元计算.文中给出了学习算法,并以油藏开发三次采油过程模.  相似文献   

7.
FKCN优化的RBF神经网络   总被引:1,自引:0,他引:1  
FKCN(Fuzzy Kohonen cluster netw ork)将模糊隶属度的概念用于Kohonen 神经网络的学习和更新策略中,改善了Kohonen 网络的性能,是一种更为快速有效的聚类网络。作者将FKCN用于优化RBF(Radialbasic function)神经网络基函数的中心,并将优化后的RBF网络用于曲线拟合和非线性时间序列预测,同时与基于C-MEANS的RBF网络进行比较。实验结果表明:采用FKCN优化的RBF网络具有更好的拟合和预测能力,尤其在曲线拟合实验中,FKCN优化的RBF网络可以达到最小学习误差,比C-MEANS的网络小一个数量级,可见用FKCN优化RBF神经网络可以较好地提高RBF神经网络的性能。  相似文献   

8.
基于MDL的RBF神经网络结构和参数的学习   总被引:9,自引:0,他引:9  
本文提出了一种优化径向基函数神经网络(RBFNN)结构的参数的方法,该方法包括两个过程:训练和进化.训练用梯度下降法学习RBFNN的中心,宽度和输出权值;进化采用二进制编码的遗传算法(GA)学习RBFNN的结构,适应度函数是基于信息论中最小描述长度(MDL)原理的目标函数.函数逼近仿真实验证明了该方法比其他方法鲁棒性强,所得到的网络结构简单.  相似文献   

9.
前向代数神经网络的函数逼近理论及学习算法   总被引:12,自引:0,他引:12  
文中对MP神经元模型进行了推广,定义了多项代数神经元、多项式代数神经网络,将多项式代数融入代数神经网络,分析了前向多项式代数神经网络函数逼近能力及理论依据,设计出了一类双输入单输出的前向4层多层式代数神经网络模型,由该模型构成的网络能够逼近于给定的二元多项式到预定的精度。给出了在P-adic意义下的多项式代数神经网络函数逼近整体学习算法,在学习的过程中,不存在局部极小,通过实例表明,该算法有效,最  相似文献   

10.
在已有的神经网络逼近研究中,目标函数通常定义在有限区间(或紧集)上.而实际问题中,目标函数往往是定义在全实轴(或无界集)上.文中针对此问题,研究了全实轴上的连续函数的插值神经网络逼近问题.首先,利用构造性方法证明了神经网络逼近的稠密性定理,即可逼近性.其次,以函数的连续模为度最尺度,估计了插值神经网络逼近目标函数的速度.最后,利用数值算例进行仿真实验.文中的工作扩展了神经网络逼近的研究内容,给出了全实轴上连续函数的神经网络逼近的构造性算法,并揭示了网络逼近速度与网络拓扑结构之间的关系.  相似文献   

11.
单体模糊神经网络的学习规则及其收敛性研究   总被引:6,自引:0,他引:6  
兴久祯教授在不久前研究了单体模糊神经网络(MFNNs)的函数逼近能力,在此基础上,提出了单体模糊神经网络(MFNNs)的学习规则并进一步研究了其收敛性,研究结果表明,所提出的学习规则百收敛的,这一结论为单体模糊神经网络的应用提供了坚实的理论基础。  相似文献   

12.
文章提出了二阶有理式多层前馈神经网络的数学模型。有理式多层神经网络的思想来源于函数逼近理论中的有理式逼近。有理式前馈神经网络模型是传统前俯神经网络模型的推广,能有效地求解函数逼近问题。文章给出了有理式多层神经网络的学习算法,即误差反传播学习算法。就计算复杂度而言,有理式神经网络的学习算法与传统的多层神经网络反传播算法是同阶的。文章还给出了函数逼近和模式识别两个应用实例,实验结果说明二阶有理式多层神经网络在解决传统的问题上是有效的。  相似文献   

13.
Multilayered feedforward artificial neural networks (ANNs) are black boxes. Several methods have been published to extract a fuzzy system from a network, where the input–output mapping of the fuzzy system is equivalent to the mapping of the ANN. These methods are generalized by means of a new fuzzy aggregation operator. It is defined by using the activation function of a network. This fact lets to choose among several standard aggregation operators. A method to extract fuzzy rules from ANNs is presented by using this new operator. The insertion of fuzzy knowledge with linguistic hedges into an ANN is also defined thanks to this operator.  相似文献   

14.
K-积分模意义下折线模糊神经网络的泛逼近性   总被引:1,自引:0,他引:1  
为克服模糊数运算的复杂性引入折线模糊数的定义,利用折线模糊数的优良性质获得了两个重要不等式,并给出实例说明折线模糊数的逼近能力有效.其次,引进K-拟可加积分和K-积分模概念,在折线模糊数空间满足可分性的基础上,借助于模糊值简单函数和模糊值Bernstein多项式研究了若干函数空间的稠密性问题,获得了可积有界模糊值函数类依K-积分模构成完备可分的度量空间.最后,在K-积分模意义下讨论了四层正则折线模糊神经网络对模糊值简单函数的泛逼近性,进而得到该网络对可积有界函数类也具有泛逼近性.该结果表明正则折线模糊神经网络对连续模糊系统的逼近能力可以推广为对一般可积系统的逼近能力.  相似文献   

15.
In recent years, artificial neural networks have attracted considerable attention as candidates for novel computational systems. Computer scientists and engineers are developing neural networks as representational and computational models for problem solving: neural networks are expected to produce new solutions or alternatives to existing models. This paper demonstrates the flexibility of neural networks for modeling and solving diverse mathematical problems including Taylor series expansion, Weierstrass's first approximation theorem, linear programming with single and multiple objectives, and fuzzy mathematical programming. Neural network representations of such mathematical problems may make it possible to overcome existing limitations, to find new solutions or alternatives to existing models, and to achieve synergistic effects through hybridization.  相似文献   

16.
Di  Xiao-Jun  John A.   《Neurocomputing》2007,70(16-18):3019
Real-world systems usually involve both continuous and discrete input variables. However, in existing learning algorithms of both neural networks and fuzzy systems, these mixed variables are usually treated as continuous without taking into account the special features of discrete variables. It is inefficient to represent each discrete input variable having only a few fixed values by one input neuron with full connection to the hidden layer. This paper proposes a novel hierarchical hybrid fuzzy neural network to represent systems with mixed input variables. The proposed model consists of two levels: the lower level are fuzzy sub-systems each of which aggregates several discrete input variables into an intermediate variable as its output; the higher level is a neural network whose input variables consist of continuous input variables and intermediate variables. For systems or function approximations with mixed variables, it is shown that the proposed hierarchical hybrid fuzzy neural networks outperform standard neural networks in accuracy with fewer parameters, and both provide greater transparency and preserve the universal approximation property (i.e., they can approximate any function with mixed input variables to any degree of accuracy).  相似文献   

17.
Motivated by the slow learning properties of multilayer perceptrons (MLPs) which utilize computationally intensive training algorithms, such as the backpropagation learning algorithm, and can get trapped in local minima, this work deals with ridge polynomial neural networks (RPNN), which maintain fast learning properties and powerful mapping capabilities of single layer high order neural networks. The RPNN is constructed from a number of increasing orders of Pi–Sigma units, which are used to capture the underlying patterns in financial time series signals and to predict future trends in the financial market. In particular, this paper systematically investigates a method of pre-processing the financial signals in order to reduce the influence of their trends. The performance of the networks is benchmarked against the performance of MLPs, functional link neural networks (FLNN), and Pi–Sigma neural networks (PSNN). Simulation results clearly demonstrate that RPNNs generate higher profit returns with fast convergence on various noisy financial signals.  相似文献   

18.
有理式多层前馈神经网络   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了有理式多层前馈神经网络的数学模型,给出了有理式多层神经网络的学习算法,就计算复杂度而言,有理式神经网络的学习算法与传统的多层神经网络反传播算法是同阶的,函数逼近应用实例结果表明,将有理式多层神经网络用于解决传统问题是有效的。  相似文献   

19.
直觉模糊神经网络的函数逼近能力   总被引:3,自引:0,他引:3       下载免费PDF全文
运用直觉模糊集理论,建立了自适应神经-直觉模糊推理系统(ANIFIS)的控制模型,并证明了该模型具有全局逼近性质.首先将Zadeh模糊推理神经网络变为直觉模糊推理网络,建立一个多输入单输出的T-S型ANIFIS模型;然后设计了系统变量的属性函数和推理规则,确定了各层的输入输出计算关系,以及系统输出结果的合成计算表达式;最后通过证明所建模型的输出结果计算式满足Stone-Weirstrass定理的3个假设条件,完成了该模型的全局逼近性证明.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号