首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
基于主成分分析的神经网络入侵检测仿真研究   总被引:1,自引:0,他引:1  
单冬红  赵伟艇 《计算机仿真》2011,28(6):153-156,279
研究入网络安全的入侵检测问题.针对网络入侵数据的高维、非线性和冗余特点,传统降维和检测方法检测率低的难题,为了提高网络安全性,提出一种基于主成分分析的遗传神经网络网络入侵检测方法.首先对网络入侵的数据维数利用主成分分析进行降维处理,消除数据之间的冗余信息,简化神经网络的输入,然后采用遗传算法对神经网络的权值进行优化,加...  相似文献   

2.
随着网络复杂度的增加,传统的入侵检测方法已经无法满足日益增长的安全需求。采用大数据的挖掘算法提高入侵检测的检测率是当前研究的热点。为此,本文提出一种基于k-means和决策树算法的混合入侵检测算法(KDI)。该算法首先对数据预处理的离散化方法进行改进,获取高质量样本数据,并根据现实中易出现类别信息增益比差异小的特点,利用k-means算法根据增益比差异将样本数据先分类再建立决策树,提升了算法的检测率。实验结果表明KDI算法能够有效地检测网络数据中隐含的已知和未知的入侵行为。  相似文献   

3.
针对入侵检测中部分攻击类型检测率低的问题,提出一种基于核学习的入侵检测改进方法。采用核主成分分析(KPCA)对入侵检测中的高维非线性结构数据集进行数据预处理,通过支持向量数据描述(SVDD)构造分类器,对预处理后的数据进行分类。实验结果表明,与已有方法相比,改进方法的检测精度较高、漏检率较低。  相似文献   

4.
本文介绍分析了高维不均衡的入侵数据对检测结果的影响,以及入侵检测系统的相关算法技术。随着互联网规模的扩展,网络信息数据暴涨,网络入侵攻击、数据泄漏等网络安全问题剧增。平衡数据集对入侵检测有着重要意义。因此如何更好地处理高维不均衡的入侵数据,进而提高模型的检测性能,已是入侵检测的研究热点。  相似文献   

5.
为有效检测网络的攻击行为,提出了基于机器学习与大数据技术的入侵检测方法。首先分析当前网络入侵检测算法,描述了大数据分析技术的网络入侵原理,然后将GRU神经网络与SVM分类算法相结合,最后使用网络入侵检测数据集进行实验。实验结果表明基于GRU-SVM模型的网络入侵检测成功率高于其他模型,网络入侵检测整体效果得到改善,保证...  相似文献   

6.
利用网络连接数据可以按照连接的基本特征、内容特征、网络流量特征和主机流量特征进行分组的特点,基于K-means算法,提出一种按照特征分组进行聚类的方法,以高效实现特征约简和数据降维.通过调整聚类参数保留特征分组内的差异信息,使用决策树C4.5算法对降维后的数据进行入侵分类处理.实验结果表明,该方法能够使kddcup99数据集的聚类特征数由41个降为4个,且对网络连接数据的总检测率为99.73%,误检率为0,其中正常网络连接和刺探攻击Probe的检测率均为100%.  相似文献   

7.
入侵检测是一种保障网络安全的有效手段。传统的入侵检测技术依赖于专家数据库,不能应对日益复杂的网络环境,所以许多研究者把机器学习的方法应用到入侵检测领域。GCN(Graph Convolutional Networks)是一种分类效果优秀的机器学习算法,本文用标准的GCN实现入侵检测任务,取得了很好的效果。提出三种数据预处理方法,将UNSW-NB15数据集构建成图结构的数据,去训练GCN算法。实验结果表明,预处理之后的数据使基于GCN的入侵检测算法具有很高的准确率,用三种预处理方法处理过的数据,去训练本文所使用的入侵检测算法,训练后的算法在执行入侵检测任务时分别有98.1%,91.9%,72.8%的准确率。提出的三种预处理方法,可以更快地将网络数据构建为图结构的数据,使入侵检测算法分析数据的速度提高,同时令算法在保证准确率的情况下大大节省计算资源。  相似文献   

8.
入侵检测技术在网络安全防卫体系中变得越来越重要.在实际应用中,为了提高检测率通常采用基于多点的分布式数据采集或基于多引擎的协作式入侵检测,但是伴随而来的是警报数量和误报数量的海量增加,使管理员无法分辨警报的真伪并有效地管理入侵检测系统,从而降低了入侵检测系统的有效性和可用性.提出了一种基于密度的抗噪声时间聚类算法,将警报聚合和关联分析方法运用于分布式多引擎入侵检测场合来解决上述问题.实验采用数据集测试的方法对算法和原型系统进行了测试,并和相关研究工作进行了比较和分析.实验结果表明,系统对于分布式扫描有良好的检测效果,并在检测的实时性能上表现出优势.  相似文献   

9.
网络入侵特征优化检测方法仿真   总被引:1,自引:0,他引:1  
网络入侵特征的伪装程度越来越高,使得入侵特征与正常数据特征在分类效果上的倾斜度越来越接近.传统的采用特征分类的入侵检测方法对训练入侵特征数据集的最佳类分布未知,都是假定误分类代价均等,只注重分类的精度敏感,忽视了类型间的区别,造成入侵检测不准.提出了一种敏感性数据挖掘的网络入侵特征检测算法.利用主成分分析方法,提取网络操作数据中的主成分,去除冗余数据,将网络入侵特征的敏感性引入到检测过程中,利用敏感性数据挖掘方法,获取网络操作数据中的恶意入侵操作行为的特征,从而完成网络入侵特征检测.实验结果表明,利用改进算法进行网络入侵特征优化检测,能够准确获取网络操作行为中的异常特征.  相似文献   

10.
数据降维是提高入侵检测分类器的学习效率和检测速度的重要手段。针对目前入侵检测数据特征降维力度不够,提出了一种基于主成分分析的分类特征降维方法。该方法把样本集按数据类型分割成多个子集,分别对每个子集进行主成分分析来消除各子集间在降维时的相互影响,使得每个子集的降维达到最佳。实验结果表明采用分类主成分分析方法能够更有效地降低数据维数,提高了入侵检测分类器的学习速度和检测速度。  相似文献   

11.
基于VB,设计了棉麻纤维纱线晶变改性成套装备传感器信号数据处理方案.方案主要由数据标定、数据滤波、数据补偿、数据应用及储存四部分组成.介绍了传感器相关参数,给出了传感器物理值计算公式.通过数据滤波,降低了数据采集过程中随机干扰对数据造成的随机误差.通过数据补偿,采集值更加接近传感器液晶屏数显值.对处理后数据应用的同时将数据导入到SQL数据库保存.经现场运行,该方案稳定可靠,满足了设计要求.  相似文献   

12.
中文数据清洗研究综述   总被引:1,自引:0,他引:1  
针对中文数据清洗研究进行了综述。阐明了全面数据质量管理与数据清洗之间的关系,给出数据清洗的定义及对象;介绍中文数据清洗问题产生的背景、国内外研究现状与研究热点,并简介其基本原理、模型及已有算法;着重阐明了中文数据清洗的方法;总结中文数据清洗研究的不足,并对中文数据清洗的研究及应用进行了展望。  相似文献   

13.
各种网络的广泛应用产生了大量的网络数据,对网络数据进行分类是数据挖掘的一个重要问题。文中对网络数据分类的国内外研究进展进行评述。首先概述网络数据分类的基本概念,然后详细分析各种网络数据分类算法,重点讨论在网络标注稀疏情况下的网络数据分类面临的挑战和解决策略,最后对网络数据分类技术进行总结和展望。  相似文献   

14.
数据质量和数据清洗研究综述   总被引:75,自引:1,他引:75  
郭志懋  周傲英 《软件学报》2002,13(11):2076-2082
对数据质量,尤其是数据清洗的研究进行了综述.首先说明数据质量的重要性和衡量指标,定义了数据清洗问题.然后对数据清洗问题进行分类,并分析了解决这些问题的途径.最后说明数据清洗研究与其他技术的结合情况,分析了几种数据清洗框架.最后对将来数据清洗领域的研究问题作了展望.  相似文献   

15.
Transformation of XML data is an important task in data exchange, data publishing and data integration. Specifically in data integration, data in XML sources is transformed to match the target schema. Some of these sources have XML keys defined. When the data is transformed, the keys also need to be transformed for constraint comparisons, consistency checking and unification in the target schema. Thus, how the keys are transformed, and whether the transformed keys are valid and preserved to the target schema are important problems in XML data transformation and integration. Towards this problem, we firstly define XML keys and their satisfactions. We then study how keys are transformed and whether transformed keys are valid when a source schema is transformed to a target schema. Finally we show whether the transformed keys are satisfied by the transformed document.  相似文献   

16.
窦家维  汪榆淋 《软件学报》2022,33(11):4316-4333
安全多方计算(secure multi-party computation,SMC)是国际密码学界近年来的研究热点.排序是一种基本的数据操作,是算法研究中最基础的问题.多方保密排序是百万富翁问题的推广,是一个基本的SMC问题,在科学决策、电子商务推荐、保密招标/拍卖、保密投票以及保密数据挖掘等方面有重要应用.目前已有的安全多方排序解决方案大多只能适用于隐私数据范围已知而且范围较小的情况,如果数据范围未知或者数据范围很大,还未见到有效的解决方案.首先,在数据范围已知情形下,针对同数据并列计位以及增位次计位两种不同排序方式设计保密计算协议,进一步设计基于关键词的增位次计位方式保密排序协议;其次,以这些协议为基础,在数据范围未知的情形下,针对上述两种不同排序方式分别构造有效的保密排序方案.应用该排序协议作为模块,可解决许多以排序为基础的实际应用问题.最后设计了一个安全、高效的保密Vickrey招投标协议,以解决实际保密招标问题.通过灵活运用编码技巧,并基于ElGamal门限密码体制设计协议,这些协议在半诚实模型下是安全、高效的.应用模拟范例严格证明了协议的安全性,并对协议的执行效率进行了实际测试.实验结果表明,该协议是高效的.  相似文献   

17.
数据流分类是数据挖掘领域的重要研究任务之一,已有的数据流分类算法大多是在有标记数据集上进行训练,而实际应用领域数据流中有标记的数据数量极少。为解决这一问题,可通过人工标注的方式获取标记数据,但人工标注昂贵且耗时。考虑到未标记数据的数量极大且隐含大量信息,因此在保证精度的前提下,为利用这些未标记数据的信息,本文提出了一种基于Tri-training的数据流集成分类算法。该算法采用滑动窗口机制将数据流分块,在前k块含有未标记数据和标记数据的数据集上使用Tri-training训练基分类器,通过迭代的加权投票方式不断更新分类器直到所有未标记数据都被打上标记,并利用k个Tri-training集成模型对第k+1块数据进行预测,丢弃分类错误率高的分类器并在当前数据块上重建新分类器从而更新当前模型。在10个UCI数据集上的实验结果表明:与经典算法相比,本文提出的算法在含80%未标记数据的数据流上的分类精度有显著提高。  相似文献   

18.
Summary Recursive data types are data types which are defined in terms of themselves, such as lists and trees. There is a single access path to each component in a recursive data structure.Generalized recursive data structures may include multiple access paths to some parts of the data structure. Two way lists, threaded trees and circular lists are generalized recursive data types. The extra access paths in a generalized recursive data structure are uniquely determined by the type of the structure and the main paths through the structure.An extension to Pascal in which generalized recursive data structures may be defined is described.  相似文献   

19.
A methodology to design data bases for finite element analysis and structural design optimization is described. The methodology considers three views of data organization-conceptual, internal, and external. Tabular and matrix forms of data are included. The relational data model is used in the data base design. Entity, relation, and attributes are considered to form a conceptual view of data. First, second, and third normal forms of data are suggested to design an internal model. Several aspects such as processing, iterative needs, multiple views of data, efficiency of storage and access time, and transitive data are considered in the methodology.  相似文献   

20.
For original paper see ibid., p. 474. This is a clear example of how research in software engineering can progress when empirical methods are applied. Menzies and Di Stefano apply a number of data mining tools to the data set. While, inmost cases, their results are in agreement with ours, in some cases they are not. Our first and main observation is that our interpretation of the data set is based not only on the data set itself but also on the knowledge gathered during the interviews with project members. The main problem with the data set is its size: 23 data points. Although this data set is the largest one available about reuse projects, it is too limited to base analysis only on data mining techniques; data mining is usually applied to data sets with thousands if not millions of data points.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号