共查询到20条相似文献,搜索用时 46 毫秒
1.
Web应用程序的设计与分析 总被引:13,自引:4,他引:9
Web迅速发展,并逐渐成为信息领域内最重要的一种媒介和开发手段。由于 HTTP协议的简单性,因而应用程序的开发也相对简单,但和数据库结合并动态创建页面的应用程序却很复杂。而且由于HTTP协议的无记忆性,使得基于Web的应用程序相对一般的应用程序更为复杂。Web的应用程序是软件工程一个新的应用领域,文章用UML方法来分析设计Web应用程序,根据Web应用程序的特点提出了概念页面的思想,并用页面框图,页面流来设计Web页面。 相似文献
2.
搜索引擎作为互联网主要应用之一,能够根据用户需求从互联网资源中检索并返回有效信息。然而,得到的返回列表往往包含广告和失效网页等噪声信息,而这些信息会干扰用户的检索与查询。针对复杂的网页结构特征和丰富的语义信息,提出了一种基于注意力机制和集成学习的网页黑名单判别方法,并采用本方法构建了一种基于集成学习和注意力机制的卷积神经网络(EACNN)模型来过滤无用的网页。首先,根据网页上不同种类的HTML标签数据,构建多个基于注意力机制的卷积神经网络(CNN)基学习器;然后,采用基于网页结构特征的集成学习方法对不同基学习器的输出结果执行不同的权重计算,从而实现EACNN的构建;最后,将EACNN的输出结果作为网页内容分析结果,从而实现网页黑名单的判别。所提方法通过注意力机制来关注网页语义信息,并通过集成学习的方式引入网页结构特征。实验结果表明,与支持向量机(SVM)、K近邻(KNN)、CNN、长短期记忆(LSTM)网络、GRU、结合注意力机制的卷积神经网络(ACNN)等基线模型相比,所提模型在所构建的面向地理信息领域的判别数据集上具有最高的准确率(0.97)、召回率(0.95)和F1分值(0.96),验证了EACNN在网页黑名单判别工作中的优势。 相似文献
3.
Web日志的高效多能挖掘算法 总被引:76,自引:0,他引:76
通过对Web服务器日志文件和客户交易数据进行分析,可以发现相似客户群体、相关Web页面和频繁访问路径,提出了一种新颖的Web日志挖掘算法。在该算法中,首先以Web站点URL为行、以UserID为列建立URL-UserID关联矩阵、元素值为用户的访问次数,然后,在列向量进行相似性分析得到相似客户群体,对行向量进行相似性度量获得相关Web页面,对后者再进一步还可以发现频繁访问路径。实验结果表明了算法的有效性。 相似文献
4.
沈建荣 《电脑编程技巧与维护》2010,(20):96-98
网上考试系统应用了先进的面向对象开发方法、基于B/S(浏览器/服务器)结构和面向对象接口技术编程。客户端可以通过浏览器访问系统,实现任务的下达、提交考核成绩的统计、人员权限的分配等功能。针对系统的功能和性能需求,采用了ASP.NET技术。通过ASP.NET结合HTML网页、ASP.NET指令和ActiveX元件,建立动态、交互并且高效的Web服务器应用程序。 相似文献
5.
6.
The Semantic Web application framework extends Ruby on Rails to enable rapid development of integrated Semantic Web mash-ups. Web applications are mostly database driven. Developers design a database schema and then construct the application logic (which generates Web pages for user interaction) on top of the schema. These applications are centralized and rely on their own relational database, limiting the possibilities for data integration. Mash-ups (often called Web 2.0 applications) are an emerging Web development paradigm that combines functionality from different Web applications. 相似文献
7.
XML技术在化学深层网数据提取中的应用 总被引:1,自引:1,他引:0
Internet上的化学数据库是宝贵的化学信息资源,如何有效地利用这些数据是化学深层网所要解决的问题。本文总结了化学深层网的特点,基于XML技术实现从数据库检索返回的半结构化HTML页面中提取数据的目标,使之成为可供程序直接调用做进一步计算的数据。在数据提取过程中,先采用JTidy规范化HTML,得到格式上完整、内容无误的XHTML文档,利用包含着XPath路径语言的XSLT数据转换模板实现数据转换和提取。其中XPath表达式的优劣决定了XSLT数据转换模板能否长久有效地提取化学数据,文中着重介绍了如何编辑健壮的XPath表达式,强调了XPath表达式应利用内容和属性特征实现对源树中数据的定位,并尽可能地降低表达式之间的耦合度,前瞻性地预测化学站点可能出现的变化并在XSLT数据转换模板中采取相应的措施以提高表达式的长期有效性。为创建化学深层网数据提取的XSLT数据提取模板提供方法指导。 相似文献
8.
Deep Web数据集成研究综述 总被引:24,自引:1,他引:24
随着World Wide Web(WWW)的飞速发展,Deep Web中蕴含了海量的可供访问的信息,并且还在迅速地增长.这些信息要通过查询接口在线访问其后端的Web数据库.尽管丰富的信息蕴藏在Deep Web中,由于Deep Web数据的异构性和动态性,有效地把这些信息加以利用是一件十分挑战性的工作.Deep Web数据集成至今仍然是一个新兴的研究领域,其中包含有若干需要解决的问题.总体来看,在该领域已经开展了大量的研究工作,但各个方面发展并不均衡.文中提出了一个Deep Web数据集成的系统架构,依据这个系统架构对Deep Web数据集成领域中若干关键研究问题的现状进行了回顾总结,并对未来的研究发展方向作了较为深入的探讨分析. 相似文献
9.
Generating finite-state transducers for semi-structured data extraction from the Web 总被引:13,自引:0,他引:13
Integrating a large number of Web information sources may significantly increase the utility of the World-Wide Web. A promising solution to the integration is through the use of a Web Information mediator that provides seamless, transparent access for the clients. Information mediators need wrappers to access a Web source as a structured database, but building wrappers by hand is impractical. Previous work on wrapper induction is too restrictive to handle a large number of Web pages that contain tuples with missing attributes, multiple values, variant attribute permutations, exceptions and typos. This paper presents SoftMealy, a novel wrapper representation formalism. This representation is based on a finite-state transducer (FST) and contextual rules. This approach can wrap a wide range of semistructured Web pages because FSTs can encode each different attribute permutation as a path. A SoftMealy wrapper can be induced from a handful of labeled examples using our generalization algorithm. We have implemented this approach into a prototype system and tested it on real Web pages. The performance statistics shows that the sizes of the induced wrappers as well as the required training effort are linear with regard to the structural variance of the test pages. Our experiment also shows that the induced wrappers can generalize over unseen pages. 相似文献
10.
一种Deep Web爬虫的设计与实现 总被引:1,自引:0,他引:1
随着World Wide Web的快速发展,Deep Web中蕴含了越来越多的可供访问的信息.这些信息可以通过网页上的表单来获取,它们是由Deep Web后台数据库动态产生的.传统的Web爬虫仅能通过跟踪超链接检索普通的Surface Web页面,由于没有直接指向Deep Web页面的静态链接,所以当前大多数搜索引擎不能发现和索引这些页面.然而,与Surface Web相比,Deep Web中所包含的信息的质量更高,对我们更有价值.本文提出了一种利用HtmlUnit框架设计Deep Web爬虫的方法.它能够集成多个领域站点,通过分析查询表单从后台数据库中检索相关信息.实验结果表明此方法是有效的. 相似文献
11.
WEB数据库应用程序安全性设计的一种实现 总被引:8,自引:0,他引:8
Web应用程序和数据库结合可以创建动态页面,从而建设功能强大的商务网站。但是由于HTTP协议的无记忆性,使得每个Web页面相互独立,页面之间缺少必然的因果关系,可以通过URL跳过某个页面而直接去访问其它页面,使得基于Web应用程序数据访问的安全存在很大问题。文章对此进行了讨论,并给出解决该问题的一种方法,即用户所访问的页面必须经过权限验证页面的认可才能访问,并用程序进行了实现。 相似文献
12.
林雪云 《数字社区&智能家居》2007,(7):34-36
随着社会经济的快速发展以及人民生活水平、消费支付能力的提高,各种娱乐场所消费市场迅猛发展。由于娱乐场所人员众多繁杂,因此有必要强化娱乐场所的安全管理措施。公安机关通过对各娱乐场所实施隐蔽式远程图像监控管理,变被动式接警处理为主动式监管,不仅可以大大缓解警力不足的问题,对于吸毒、聚众闹事等违法犯罪行为起到一定的震慑作用,而且必要情况下的图像资料的录像保存还可以作为公安机关对于犯罪认定和处理的有效依据。 相似文献
13.
林雪云 《数字社区&智能家居》2007,3(13):34-36
在Internet上,新技术的发展日新月异,层出不穷.为适应21世纪社会经济和科技发展对高素质创造型人才的需要,当今的现代教育技术提供了教学模式改革所必须的技术支持手段,把ADO与ASP结合起来访问Web数据库是一种理想的Web数据库访问的解决方案.通过这项技术.我们可以建立提供数据库信息的Web页内容,在Web页面中执行SQL命令,对数据库进行查询、插入、更新、删除等操作.ADO可以连接多种支持ODBC的数据库.这种新的技术手段就是网络教学,Web技术与数据库技术的结合--Web数据库技术,正在深刻地改变着网络应用的面貌. 相似文献
14.
一种基于树结构的Web数据自动抽取方法 总被引:8,自引:2,他引:8
介绍了一种基于树结构的自动从HTML页面中抽取数据的方法.在HTML页面的树形结构之上,提出了基于语义块的HTML页面结构模型:HTML页面中的数据值主要存在于语义块中,不同的HTML页面的主要区别在于语义块的区别.基于语义块的结构模型,自动抽取通过4个步骤完成:通过HTML页面比较发现语义块;区分语义块中数据值的角色;推导数据模式和推导抽取规则.在实际HTML页面上的实验已经证明,这种方法能够达到较高的正确率,同时,随着文档的增大,方法也能够保证线性的时间复杂度. 相似文献
15.
基于网页上下文的Deep Web数据库分类 总被引:6,自引:0,他引:6
讨论了提高Deep Web数据库分类准确性的若干新技术,其中包括利用HTML网页的内容文本作为理解数据库内容的上下文和把数据库表的属性标记词归一的过程.其中对网页中的内容文本的发现算法是基于对网页文本块的多种统计特征.而对数据库属性标记词的归一过程是把同义标记词用代表词进行替代的过程.给出了采用分层模糊集合对给定学习实例所发现的领域和语言知识进行表示和基于这些知识对标记词归一化算法.基于上述预处理,给出了计算Deep Web数据库的K-NN(k nearest neighbors)分类算法,其中对数据库之间语义距离计算综合了数据库表之间和含有数据库表的网页的内容文本之间的语义距离.分类实验给出算法对未预处理的网页和经过预处理后的网页在数据库分类精度、查全率和综合F1等测度上的分类结果比较. 相似文献
16.
由数据库生成的动态Web页是静态页面的数百倍,直接针对Web页产生过程的深度标注可以提高动态Web页的标注效率。针对动态Web页以查询生成居多的特点,提出标注与反馈相结合的深度标注框架,即第一步通过标注模块进行初步标注,并记录Web页面的查询要求;第二步分析查询信息,找出不同Web页的关系,通过反馈模块进一步补充标注内容,从而提高标注的质量。 相似文献
17.
Jun-Rong Chen 《Information Sciences》2006,176(6):628-639
In addition to conventional information media such as newspaper, radio, and television, modern network media such as e-mail and Web page has become popular means of proliferating information. However, the number of Web page is so large that they need to be managed systematically.Therefore, this work presents a component-based Web page management environment, which: (1) enables high-level modeling capability of Web pages through components, (2) improves maintenance of Web applications, and (3) facilitates the reuse of Web page components. 相似文献
18.
19.