共查询到20条相似文献,搜索用时 46 毫秒
1.
随着集成电路制作工艺的提升,FPGA可重构资源数量不断增加,导致配置文件体量过大从而引起配置过程耗时较长.针对这个问题,提出了一种基于混合编码的配置文件压缩算法MH-RLE.该算法根据二进制配置文件中“0”和“1”的分布特点,首先,采用RLE定长压缩方法对其进行压缩;然后,采用Huffman编码解决RLE定长压缩计数位“空零”问题;最后,使用提出的掩码方式进行二次压缩以进一步提升压缩率.实验结果表明:MH-RLE的平均压缩率为49.82%,相较于其他6种压缩算法其压缩率均有不同程度的提升,最多可提升12.4%. 相似文献
2.
对北京同步辐射生物大分子晶体学光束线与实验站控制系统所需的快速管理系统硬件信息和系统状态方法中采用的一种基于配置文件的数据管理方法进行了详细介绍.这种方法灵活高效,易于数据的统一管理和修改.经实验证明,配置文件是一种有效的数据管理手段. 相似文献
3.
基于配置文件的自动化测试软件设计方法 总被引:4,自引:1,他引:3
介绍了可用于虚拟仪器系统应用软件开发的一种软件设计方法.通过使用配置文件,简化了多功能的复杂测试系统的应用软件开发的复杂度,实现了灵活的自动化测试.软件架构具有通用性、灵活性以及易于扩充的特点,可作为多功能测试系统软件设计的一种通用架构,已在多套测试系统应用软件的开发中得到了成功应用. 相似文献
4.
针对传统异常检测方法在处理多元和高维数据时检测性能较差的问题,提出一种融合弹性网和深度去噪自编码器的网络异常检测方法。构建一种基于弹性网的深度去噪自编码器,利用部分正常数据对网络进行训练获得重构误差阈值,以自编码器和重构误差值检测异常行为。采用NSL-KDD数据集的实验结果表明,与AE、K-NN和SVM方法相比,该方法在保证较好的分类准确率和检测率的同时,召回率和F1值明显提高,误报率明显降低,对不同攻击类数据被分类为异常的准确率也优于其它方法。 相似文献
5.
使用分类器自动发现特定领域的深度网入口 总被引:4,自引:0,他引:4
在深度网研究领域,通用搜索引擎(比如Google和Yahoo)具有许多不足之处:它们各自所能覆盖的数据量与整个深度网数据总量的比值小于1/3;与表层网中的情况不同,几个搜索引擎相结合所能覆盖的数据量基本没有发生变化.许多深度网站点能够提供大量高质量的信息,并且,深度网正在逐渐成为一个最重要的信息资源.提出了一个三分类器的框架,用于自动识别特定领域的深度网入口.查询接口得到以后,可以将它们进行集成,然后将一个统一的接口提交给用户以方便他们查询信息.通过8组大规模的实验,验证了所提出的方法可以准确高效地发现特定领域的深度网入口. 相似文献
6.
7.
8.
白杰 《电脑编程技巧与维护》1995,(5):7-8,11
DOS 6.0为其配置文件CONFIG.SYS提供了许多新的功能,使你可以通过选择菜单执行不同的配置,用于满足各种不同的处理过程。这就可以省去以往那些为了达到此目的,而同时备有几个配置文件的麻烦。例如:在过去,当用到网络时,就要使用包含有网络驱动程序的CONFIG.SYS;同样,当需要大量内存运行应用程序时,就需要第二个CONFIG.SYS。幸好,DOS6提供的新功能可以使用户摆脱这种尴尬的困境。 DOS6.0通过在CIONFIG.SYS文件中利用分段.为不同的处理提供各自的入口。利用在其中设计的菜单项目,使系统启动后用 相似文献
9.
数据导入操作是实现不同系统间数据交换的重要环节,本文利用配置文件实现异构数据的灵活导入,解决面向具体应用的问题。在综合教务管理信息系统中的成功应用验证了该方法的有效性。 相似文献
10.
11.
Deep Web包含丰富的、高质量的信息资源,由于没有直接指向Deep Web页面的静态链接,目前大多搜索引擎不能发现这些页 面,只能通过填写表单提交查询获取。为此,提出一种Deep Web爬虫爬行策略。用网页分类器的分层结果指导链接信息提取器提取有前途的链接,将爬行深度限定在3层,从最靠近查询表单中提取链接,且只提取属于这3个层次的链接,从而减少爬虫爬行时间,提高爬虫的准确度,并设计聚焦爬行算法的约束条件。实验结果表明,该策略可以有效地下载Deep Web页面,提高爬行效率。 相似文献
12.
Deep Web蕴藏丰富的、高质量的信息资源,为了获取某Deep Web站点的页面,用户不得不键入一系列的关键词集。由于没有直接指向Deep Web页面的静态链接,目前大多数搜索引擎不能发现这些页面。该文提出的Deep Web爬虫爬行策略,可以有效地下载Deep Web页面。由于该页面只提供一个查询接口,因此Deep Web爬虫设计面对的主要挑战是怎样选择最佳的查询关键词产生有意义的查询。实验证明文中提出的一种基于不同关键词相关度权重的选择方法是有效的。 相似文献
13.
关于中国Deep Web的规模、分布和结构 总被引:7,自引:0,他引:7
随着Web数据库的广泛应用,Web正在加速的"深化",大量的高质量的信息隐藏在Deep Web中.基于IP采样的方法,对1,000,000个IP样本进行了分析统计,揭示了2006年初中国Deep Web的规模、分布和结构.主要结论包括有:1中国Deep Web查询接口往往位于站点浅层,94.6%的Deep Web查询接口出现在站点的前3层;2中国Deep Web大约有24,000个站点,28,000个Web数据库和74,000个查询接口;3中国Deep Web大部分是非结构化的,其中64%是非结构化的Web数据库;4中国Deep Web分布于多种不同的主题领域;5目前主要的中文搜索引擎已覆盖国内Deep Web大约二分之一的页面. 相似文献
14.
15.
16.
查询接口集成是Deep Web数据集成的关键,在动态环境下,Web数据源的变化会引起数据模式映射的失效,使得查询接口集成维护难度增加,因此数据模式映射失效检测是Deep Web数据集成研究中的热点问题.针对目前数据模式映射失效检测方法的局限,在模糊聚集算子的研究基础上,提出一种适用于数据模式映射失效检测的结果融合算法.通过实验对比测试,并对映射失效检测方法的性能和效率进行了分析和实验,结果证明了提出的方法对于失效模型的检测是有效的. 相似文献
17.
基于本体的Deep Web查询接口分类 总被引:1,自引:0,他引:1
目前对于分类问题,主要工作集中在文本或Web文档的分类研究,而很少有对deep Web查询接口的分类研究.deep Web源包括查询接口和查询结果,大量的deep Web源的存在,对它们查询接口的分类是通向deep Web分类集成和检索的关键步骤.本分提出一种deep Web本体分类方法,包括:分类本体的概念模型和由此产生的deep Web空间向量模型(VSM).试验表明,这种分类方法具有良好的分类效果,平均准确率达到91.6%,平均查全率达到92.4%. 相似文献
18.
Deep Web查询接口的判定技术研究 总被引:1,自引:0,他引:1
李齐会 《计算机与数字工程》2009,37(3):131-134
互联网的飞速发展,给人类带来了海量的可供访问信息,但是,现今搜索引擎索引的绝大部分是表层Surface Web网的信息,限于一些技术原因,搜索引擎几乎无法索引到Deep Web网中的信息。由于查询接口是Deep Web的唯一入口,但并非所有的网页表单都是查询接口,为了能充分利用Deep Web后台数据库信息,首先要找到进入Deep Web后台数据库的入口,所以对查询接口的正确判定至关重要。文中介绍了利用决策树CA.5分类算法自动判定网页表单是否为Deep Web查询接口的方法。 相似文献
19.
一种Deep Web爬虫的设计与实现 总被引:1,自引:0,他引:1
随着World Wide Web的快速发展,Deep Web中蕴含了越来越多的可供访问的信息.这些信息可以通过网页上的表单来获取,它们是由Deep Web后台数据库动态产生的.传统的Web爬虫仅能通过跟踪超链接检索普通的Surface Web页面,由于没有直接指向Deep Web页面的静态链接,所以当前大多数搜索引擎不能发现和索引这些页面.然而,与Surface Web相比,Deep Web中所包含的信息的质量更高,对我们更有价值.本文提出了一种利用HtmlUnit框架设计Deep Web爬虫的方法.它能够集成多个领域站点,通过分析查询表单从后台数据库中检索相关信息.实验结果表明此方法是有效的. 相似文献
20.
基于Deep Web的信息采集系统 总被引:1,自引:0,他引:1
随着互联网技术的迅速发展,大量结构化的高质量信息被埋入网络,却无法被传统的搜索引擎检索到,进而难以被挖掘利用。针对这一现象,提出了基于Deep Web的信息采集系统,设计了基于Web的查询方式,并结合数据挖掘的相关技术,获取并挖掘深网信息资源,解决传统手工采集信息的弊端,提高系统的使用效率,避免人工搜集时间和费用上的开销,降低成本,便于维护。并且正在云南省大型仪器协作共用网络平台的建设中尝试实现这个子系统的设计。 相似文献