首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 155 毫秒
1.
王渊  马骏 《计算机仿真》2007,24(2):33-36
数据库审计是数据库安全的重要组成部分.它包括了日志记录和日志分析两个部分.然而传统的数据库审计系统往往只是一个简单的日志系统,而并不具备对日志进行分析的能力.即使存在审计分析能力,也往往具有语义不足,不易定义的特点.DBIDAUD模型使用入侵检测方法来实现数据库的审计分析能力,在DBIDAUD模型中存在一个规则库,其中定义了入侵检测知识,审计员通过定制规则库来定制系统的安全策略.模型具有丰富的语义和较高的效率,能够用来实现高安全数据库的审计系统.国产OSCARSEC安全数据库使用DBIDAUD实现了审计中心子系统.满足了国家安全标准四级的要求,在航天内部得到了充分的应用.  相似文献   

2.
数据库审计是数据库安全的重要组成部分,包括日志记录和日志分析两部分。在SQL Server数据库中,使用审计功能只能获取审计跟踪的信息,并不具备日志分析的能力。针对SQL Server数据库审计功能的不足,给出了一个数据库安全审计系统MyAudit的设计和实现。MyAudit系统使用误用检测方法进行审计分析,能够检测出攻击企图、伪装攻击两种类型的数据库攻击。  相似文献   

3.
当前大型数据库应用系统较多采用中间件构成三层体系结构,实现三层结构系统的关键技术是中间件技术。在设计广东省高速公路联网收费系统时,考虑到全省需求的复杂性和开发、维护的高效性,使用了多种应用软件,同时采用中间件来为应用软件提供运行和开发的环境,帮助用户灵活、高效地开发和集成复杂的应用软件。在实际应用中,该系统的运行体现出了安全、稳定和高效的性能。  相似文献   

4.
当前大型数据库应用系统较多采用中间件构成三层体系结构,实现三层结构系统的关键技术是中间件技术.在设计广东省高速公路联网收费系统时,考虑到全省需求的复杂性和开发、维护的高效性,使用了多种应用软件,同时采用中间件来为应用软件提供运行和开发的环境,帮助用户灵活、高效地开发和集成复杂的应用软件.在实际应用中,该系统的运行体现出了安全、稳定和高效的性能.  相似文献   

5.
针对不断出现的Web数据库安全问题和企业用户灵活多变的安全需求,对影响Web数据库安全的主要因素进行分析,构建一种基于XML的Web数据库安全中间件。从微管理和面向服务理念对身份鉴别、访问控制、漏洞检测和操作审计四个方面进行深入探讨。用监听器和过滤器实现用户访问控制、漏洞扫描器进行漏洞检查、日志记录器进行审计跟踪。为了更准确的预防SQL注入等攻击行为,使用了正则表达式定义过滤规则。实验和仿真证明,该中间件能够动态地适应环境变化,可以有效防止内外部用户对Web数据库的攻击和数据泄露。  相似文献   

6.
本文主要对影响日志集中审计系统分析审计效率低的原因进行了分析,通过对采集网卡的处理程序、软件匹配算法、存储设计和数据库表结构等方面的调整优化,提高日志分析审计的准确性和效率,从而将日志集中审计系统真正的应用到现有网络中,及时发现网络中的异常情况,提升安全事件的分析能力。  相似文献   

7.
文章分析了不同数据库审计技术,通过研究对大型关系型数据库日志进行分析以获取数据库操作信息的实现方法,提出了数据库操作行为审计的设计方案。文章还探讨了数据库操作行为审计在电力信息系统中的应用前景。  相似文献   

8.
操作日志是各种应用系统非常重要的一部分,它记录了用户在系统中进行的操作,为系统管理者进行审计跟踪提供了数据支撑。本文介绍一种基于struts2拦截器模式的操作日志系统设计,它在实现操作日志记录的同时,以极其优雅及简洁的方式降低了业务逻辑与操作日志记录之间的耦合性,是实现操作日志的理想选择。  相似文献   

9.
传统的方式是将日志记录到本地日志文件中,然后使用日志分析程序进行分析。而 PaaS 平台运行着由不同编程语言和开发框架编写的应用,其记录日志的方式不尽相同,使日志分析程序的通用性不佳;一个应用又会有多个实例在运行,导致同一个应用的日志分散在多个地方,不便于管理。本文设计了一种简单灵活的日志格式,使用 Thrift 作为远程调用框架,支持多种编程语言调用服务,将日志数据统一在 MongoDB 中进行存取和查询。开发者还可以指定字段进行统计,直接生成图表。系统部署则采用 Docker 容器的方式,可以方便地进行水平扩展。实际运行表明,运用相关技术构建的日志收集分析系统易于使用,功能丰富,能够灵活扩展,很好地满足了 PaaS 平台的需求。  相似文献   

10.
针对Oracle8i/9i系统自带的审计功能无法获取用户操作语句的问题,研究分析了Oracle数据库的事务日志文件,提出一种结合事务日志和审计日志还原用户访问数据库会话过程的方法。该方法使用LogMiner分析事务日志文件,通过匹配事务日志和审计日志中共有的关键字段,确定对应的数据库操作语句,从而还原出任意用户从登录到退出的完整会话过程。会话还原结果可用来执行数据库操作的审计,保护数据库安全。  相似文献   

11.
基于内容主题的语料库系统设计与实现*   总被引:2,自引:0,他引:2  
介绍了笔者开发制作的汉语语料库系统的特点、功能,以及系统的设计思想和总体框架。系统以2001年《人民日报》电子文本为生语料,实现了KWIC索引、词表生成、词语搭配分析和分类主题词提取等功能,能够为网络信息挖掘和自然语言处理研究提供丰富而真实的语言环境。  相似文献   

12.
单语句法分析指导的双语结构对齐   总被引:3,自引:1,他引:2  
提出了一种单语句法分析指导的双语语料库结构对齐方法.该方法以统计的双语模型——反向转换文法为基础,通过把英语句法分析知识融入到双语模型中,实现英汉双语的结构对齐.与现有方法相比,只需要一种语言的句法分析结果,避开了汉语句法分析的难题,同时保证了双语结构对齐的语法合理性.实验结果表明,这种方法充分利用现有的句法分析知识,有效地提高了结构对齐的正确率.利用该方法获得的结构对齐双语料库对于翻译知识的自动获取研究具有重要意义.  相似文献   

13.
濒危语言典藏以抢救和长久保存濒危语言口语中所包含的声学、语言学以及文学、历史、传统文化等内涵的全部信息为目的,吕苏语作为一种无文字文献记录的濒危语言,对其口语语料典藏意义重大。吕苏语口语的汉语标注语料自动分词是后续建立高质量的吕苏语口语语料库和吕苏语典藏系统的基础性工作。目前对于吕苏语标注语料分词的研究几乎为零,本文首先对吕苏语特点进行了分析,同时将中文自动分词结巴方法应用到吕苏语汉语标注语料中,并针对结巴分词算法对吕苏语标注语料分词存在的误分词问题,提出了改进结巴算法。经过实验对比,改进结巴的分词方法准确率更高,提高了吕苏语汉语标注语料的分词效果。  相似文献   

14.
针对蒙汉机器翻译中平行语料资源稀缺的问题,提出利用单语语料库对蒙汉机器翻译进行研究。由于利用单语语料库进行机器翻译的效果较差,故将基于自注意力机制预训练跨蒙汉语言模型应用于基于单语语料库训练的蒙汉机器翻译系统中。实验结果表明,基于自注意力机制预训练跨蒙汉语言模型的方法极大改善了蒙汉机器翻译系统的性能。  相似文献   

15.
中医药古文献语料库设计与开发研究   总被引:3,自引:2,他引:1  
专业领域语料库是对专业领域文献进行自然语言处理的重要的不可或缺的基础,是对专业文本内容与意图进行深层把握的必由之路。通过对研究背景的分析,进一步明析了专业文献进行自然语言处理的必要性,并在对专业文献语料库的研究特点进行分析的基础上,深入探讨了专业语料库的设计思想及原理,同时,对语料库词类的标注信息进行了深入研究。成功地开发了针对专业领域语料库的辅助加工系统,为专业领域语料库建设提供了理论指导和技术支撑。  相似文献   

16.
A web-based Bengali news corpus for named entity recognition   总被引:1,自引:0,他引:1  
The rapid development of language resources and tools using machine learning techniques for less computerized languages requires appropriately tagged corpus. A tagged Bengali news corpus has been developed from the web archive of a widely read Bengali newspaper. A web crawler retrieves the web pages in Hyper Text Markup Language (HTML) format from the news archive. At present, the corpus contains approximately 34 million wordforms. Named Entity Recognition (NER) systems based on pattern based shallow parsing with or without using linguistic knowledge have been developed using a part of this corpus. The NER system that uses linguistic knowledge has performed better yielding highest F-Score values of 75.40%, 72.30%, 71.37%, and 70.13% for person, location, organization, and miscellaneous names, respectively.
Sivaji BandyopadhyayEmail: Email:
  相似文献   

17.
双语语料对齐是自然语言处理的一个重要研究课题。对双语平行语料库的研究工作主要有构建、对齐和标注等方面,其中研究不同级别的对齐技术是一个重要的中心课题,对齐不仅是进一步利用平行语料库获取一些语言知识的必要前提.也是机器翻译系统利用双语知识的重要前期处理。重点介绍典型的句子对齐方法,并总结出每种方法的优缺点,具体分析了汉维双语句子对齐的方法。  相似文献   

18.
Research in machine translation and corpus annotation has greatly benefited from the increasing availability of word-aligned parallel corpora. This paper presents ongoing research on the development and application of the sawa corpus, a two-million-word parallel corpus English—Swahili. We describe the data collection phase and zero in on the difficulties of finding appropriate and easily accessible data for this language pair. In the data annotation phase, the corpus was semi-automatically sentence and word-aligned and morphosyntactic information was added to both the English and Swahili portion of the corpus. The annotated parallel corpus allows us to investigate two possible uses. We describe experiments with the projection of part-of-speech tagging annotation from English onto Swahili, as well as the development of a basic statistical machine translation system for this language pair, using the parallel corpus and a consolidated database of existing English—Swahili translation dictionaries. We particularly focus on the difficulties of translating English into the morphologically more complex Bantu language of Swahili.  相似文献   

19.
This article focuses on the systematic design of a segment database which has been used to support a time-domain speech synthesis system for the Greek language. Thus, a methodology is presented for the generation of a corpus containing all possible instances of the segments for the specific language. Issues such as the phonetic coverage, the sentence selection and iterative evaluation techniques employing custom-built tools, are examined. Emphasis is placed on the comparison of the process-derived corpus to naturally-occurring corpora with respect to their suitability for use in time-domain speech synthesis. The proposed methodology generates a corpus characterised by a near-minimal size and which provides a complete coverage of the Greek language. Furthermore, within this corpus, the distribution of segmental units is similar to that of natural corpora, allowing for the extraction of multiple units in the case of the most frequently-occurring segments. The corpus creation algorithm incorporates mechanisms that enable the fine-tuning of the segment database's language-dependent characteristics and thus assists in the generation of high-quality text-to-speech synthesis.  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号