首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
联想记忆网络是一种反馈型神经网络。由于反馈型网络会收敛于某个稳定状态,因此,可用于联想记忆。神经网络具有高度的并行处理能力和极强的非线性映射能力,可以实现故障与征兆之间复杂的非线性映射关系,因此在机械故障诊断领域中显示了很大的应用潜力。本文以模拟人脑由部分记忆而联想整体的特点为基础,通过引入联想记忆衰减因子,改进神经网络结构和学习算法.应用于系统的故障诊断。  相似文献   

2.
本文给出了一种改进的神经元联想记忆模型及其在控制系统故障诊断中的应用。这种模型不要求输入的样本向量之间是正交的或近似正交的,而是对任意输入样本向量进行HADAMARD预处理,使得处理后的样本向量,与输出样本向量组成联想矩阵M,构成这种联想记忆模型。最后本文给出了一个简单的控制系统故障诊断的数值例子加以说明。  相似文献   

3.
具有非线性映射能力的RAM式联想存贮器*   总被引:1,自引:0,他引:1  
陈松灿 《软件学报》1995,6(Z1):112-117
本文提出一种具有非线性映射能力的RAM式联想存贮器(RAM—AM),通过将二值输入模式分解成若干个子模式,并作为RAM的寻址地址,来训练该联想存贮器.存贮编码采用相关矩阵方法,此AM作为异联想存贮器能成功地回忆,如XOR、高阶奇偶校验一类高阶非线性问题,说明了映射能力对于模式划分行为的依赖性.最后从理论上证明了所提模型的信噪比大大高于Hopfield模型的信噪比及在大量神经元存在下的可实现性,实验例子证实了这种模型的可行性.  相似文献   

4.
陈松灿 《软件学报》1995,6(1):112-117
本提出一种具有非线性映射能力的RAM式联想存贮器,通过将二值输入模式分解分解成若干个子模式,并作为RAM的寻址地址,来训练该联想存贮器,存贮编码采用相关矩阵方法,此AM作为异联想存贮器能成功地回忆,如XOR,高阶奇偶校验一类高阶非线性问题,说明了映射能力对于模式划分行为的依赖性。  相似文献   

5.
提出一种非线性分类3-法——基于非线性映射的Fisher判别分析(NM-FDA).首先提取基向量;然后采用Nystrom方法,以基向量为训练样本.将形式未知的非线性映射近似表达为已知形式的非线性映射,这种近似的非线性映射将变量由非线性的输入空间转换到线性的特征子空澡;最后对映射数据进行线性Fisher判别分析.实验采用7组标准数据集,结果显示NM-FDA具有较强的分类能力.  相似文献   

6.
本文研究规则后件为非线性函数的高阶Takagi-Sugeno(TS)模糊系统.为求解规则后件的函数表达式,首先通过一个核映射将原输入空间映射到高维特征空间,使原空间的非线性子模型转化为高维特征空间的线性子模型,获得了规则后件的非线性函数的计算公式.然后,给出了用核模糊聚类和最小二乘支持向量机设计模糊系统的一种新算法.最后通过4个公开数据集上的仿真实验验证了所提算法的逼近能力、推广能力和鲁棒性能.  相似文献   

7.
1引言反馈网络与前馈网络是人工神经网络中两种最基本的网络模型。从控制的观点,后者属于静态网络,前者则属于动态网络。联想特性是人工神经网络的一个重要特性。它主要包括两个方面:联想映射与联想记忆。在前馈网络的讨论中,我们着重介绍了神经网络的诱人的联想映射能力;在反馈网络的讨论中,我们将着重介绍神经网络的另一诱人特性——联想记忆能力。人类智能的一个重要特点就是,具有很强的联想记忆能力。人不仅能识别记忆中的完整模式,而且也能根据记忆中模式的部分信息进行正确的识别,由部分信息联想或恢复到完全的信息,这即所…  相似文献   

8.
陈松灿  高航  杨国庆 《软件学报》1996,7(Z1):425-430
本文针对基于Moore-Penrose广义逆实现的联想存储模型(如Kohonen模型、Mu rakami模型)缺乏对已存数据完全的联想回忆能力和非线性映射能力,通过在这些模型中引入一个扩展层(隐节点层)使原模型具有对已存数据的完全回忆能力和一定的非线性映射能力,通过矩阵的奇异值分解,从理论上阐明了改进模型的性能优越性.模拟结果证实了这一点.  相似文献   

9.
陈松灿  高航 《软件学报》1996,7(A00):425-430
本文针对基于Moore-Penrose广义逆实现的联想存储模型(如Kohonen模型、Murakami模型)缺乏对已存数据完全的联想回忆能力和非线性映射能力,通过在这些模型中引入一个扩展层(隐节点层)使原模型人具有对已存数据的完全回忆能力和一定的非线性映射能力,通过矩阵的奇异值分解,从理论上阐明了改进模型的性能优越性,模拟结果证实了这一点。  相似文献   

10.
提出了一种新的结构自适应的径向基函数(RBF)神经网络模型。在该模型中,自组织映射(SOM)神经网络作为聚类网络,采用无监督学习算法对输入样本进行自组织分类,并将分类中心及其对应的权值向量传递给RBF神经网络,分别作为径向基函数的中心和相应的权值向量;RBF神经网络作为基础网络,采用高斯函数实现输入层到隐层的非线性映射,输出层则采用有监督学习算法训练网络的权值,从而实现输入层到输出层的非线性映射。通过对字母数据集进行仿真,表明该网络具有较好的性能。  相似文献   

11.
A nonlinear feature extraction method is presented which can reduce the data dimension down to the number of classes, providing dramatic savings in computational costs. The dimension reducing nonlinear transformation is obtained by implicitly mapping the input data into a feature space using a kernel function, and then finding a linear mapping based on an orthonormal basis of centroids in the feature space that maximally separates the between-class relationship. The experimental results demonstrate that our method is capable of extracting nonlinear features effectively so that competitive performance of classification can be obtained with linear classifiers in the dimension reduced space.  相似文献   

12.
何亮  刘加 《计算机应用》2011,31(8):2083-2086
为了提高文本无关的说话人识别系统的性能,提出了基于线性对数似然核函数的说话人识别系统。线性对数似然核函数利用高斯混合模型对频谱特征序列进行压缩;将频谱特征序列之间的相似程度转化为高斯混合模型参数之间的距离;根据距离表达式,利用极化恒等式求得频谱特征序列向高维矢量空间的映射方法;最后,在高维矢量空间,采用支持向量机(SVM)为目标说话人建立模型。在美国国家标准技术署公布的说话人识别数据库上的实验结果表明,所提核函数具有优异的识别性能。  相似文献   

13.
最小平方函数链式联想存储器   总被引:1,自引:1,他引:0  
陈松灿 《软件学报》1996,7(1):31-35
本文借助于输入的函数扩展思想,将其引入到一般类型的联想存储器模型,通过噪声输入模式来优化所提出的模型,推广了一类联想存储器模型,实验结果表明最小平方函数链式联想存储器(FLAM)比之KOHONEN模型、MURAKAMI模型在性能上优越.  相似文献   

14.
陈松灿  高航  朱梧槚 《软件学报》1997,8(3):210-213
基于Kohonen的广义逆联想存储模型GIAM(generalizedinverseasociativememory)和Murakami的最小平方联想存储LSAM(leastsquaresassociativememory)原理,本文提出了一个指数型联想存储器.该模型的存储性能经计算机模拟证实,远远优于GIAM和LSAM,通过适当地调节参数,几乎可达到完全的联想.对输入噪声方差,无需先验假设,同时还实现了一定程度的非线性映射特性.  相似文献   

15.
朱庆保 《计算机学报》2003,26(8):1004-1008
提出了一种能高速度、高精度学习的低维小脑模型神经网络.模型算法采用直接权地址映射技术,将训练样本的输入量化后直接作为联想存储器中C个权的首地址,建立起输入与权的关系.经样本训练后,任意输入作为相近的两个样本间的权首地址,经过输出映射算法即可得到较精确的输出.实验表明,它学习非线性函数的精度比最新改进的CMAC高十倍以上,收敛速度则快五十倍以上,且算法简单,不会发散,学习过程要求的存储器很小,实现容易.此算法已用于机器人传感器的信号细分,取得了非常好的效果.  相似文献   

16.
The fuzzy associative conjuncted maps (FASCOM) is a fuzzy neural network that associates data of nonlinearly related inputs and outputs. In the network, each input or output dimension is represented by a feature map that is partitioned into fuzzy or crisp sets. These fuzzy sets are then conjuncted to form antecedents and consequences, which are subsequently associated to form if–then rules. The associative memory is encoded through an offline batch mode learning process consisting of three consecutive phases. The initial unsupervised membership function initialization phase takes inspiration from the organization of sensory maps in our brains by allocating membership functions based on uniform information density. Next, supervised Hebbian learning encodes synaptic weights between input and output nodes. Finally, a supervised error reduction phase fine-tunes the network, which allows for the discovery of the varying levels of influence of each input dimension across an output feature space in the encoded memory. In the series of experiments, we show that each phase in the learning process contributes significantly to the final accuracy of prediction. Further experiments using both toy problems and real-world data demonstrate significant superiority in terms of accuracy of nonlinear estimation when benchmarked against other prominent architectures and exhibit the network's suitability to perform analysis and prediction on real-world applications, such as traffic density prediction as shown in this paper.   相似文献   

17.
The objective of this paper is to to resolve important issues in artificial neural nets-exact recall and capacity in multilayer associative memories. These problems have imposed restrictions on coding strategies. We propose the following triple-layered hybrid neural network: the first synapse is a one-shot associative memory using the modified Kohonen's adaptive learning algorithm with arbitrary input patterns; the second one is Kosko's bidirectional associative memory consisting of orthogonal input/output basis vectors such as Walsh series satisfying the strict continuity condition; and finally, the third one is a simple one-shot associative memory with arbitrary output images. A mathematical framework based on the relationship between energy local minima (capacity of the neural net) and noise-free recall is established. The robust capacity conditions of this multilayer associative neural network that lead to forming the local minima of the energy function at the exact training pairs are derived. The chosen strategy not only maximizes the total number of stored images but also completely relaxes any code-dependent conditions of the learning pairs.  相似文献   

18.
现有的径向布局可视化方法无法有效捕获高维数据的非线性结构.因此,文中提出基于维度扩展和重排的类圆映射可视化聚类方法.利用近邻传播聚类算法和多目标聚类可视化评价指标对高维数据进行维度扩展,然后对扩展后的高维数据进行维度相关性重排,最后利用类圆映射机制降维至二维可视化空间,实现高维数据有效可视化聚类.实验表明,文中提出的维度扩展和重排策略能有效提高类圆映射可视化方法聚类效果,其中的维度扩展策略也能显著提高其它径向布局可视化方法聚类效果,泛化性能较好.此外,相比同类方法,文中方法在可视化聚类准确度、拓扑保持、Dunn指数及效果上优势明显  相似文献   

19.
熊慧  修春波 《计算机仿真》2010,27(4):176-179
在对联想记忆神经网络的研究中,为提高现有联想记忆网络的存储能力以及相似模式和多值模式的联想成功率,提出了一种新的联想记忆网络。样本模式信息存储在动态权值矩阵中,网络根据不同的输入模式可自适应地调节当前权值矩阵。与传统联想网络相比,输入模式的信息不仅给出了联想记忆的初值,且在联想记忆过程中起到启发式搜索的作用,使网络的存储能力和联想成功率得到较好的改善。尤其可以有效地实现相似模式以及多值模式的联想记忆功能。仿真结果验证了方法的有效性。  相似文献   

20.
一种新的双向联想记忆的学习算法   总被引:1,自引:0,他引:1  
提出了一种新的用于双向联想记忆的学习算法,该算法利用了输入向量各元素之间的关联信息,在联想的过程中,动态地调整权值矩阵,增强了网络适应能力,利用了更多的已知信息,从而提高了网络的性能.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号