首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
网络在成为信息查询和发布平台的同时,海量的信息隐藏在查询受限的Web数据库中,使得人们无法有效地获取这些高质量的数据记录.传统的Deep Web搜索研究主要集中在通过关键字接口获取Web数据库内容.但是,由于Deep Web具有多属性和top-k的特点,基于关键字的方法具有固有的缺点,这就为Deep Web查询和检索带来了挑战.为了解决这个问题,提出了一种基于层次树的Deep Web数据获取方法,该方法可以无重复和完整地提取Web数据库中的数据记录.该方法首先把Web数据库模型化为一棵层次树,Deep Web数据获取问题就转化为树的遍历问题.其次,对树中的属性排序,缩小遍历空间;同时,利用基于属性值相关度的启发规则指导遍历过程提高遍历效率.最后,在本地模拟数据库和真实Web数据库上的大量实验证明,这种方法可以达到很好的覆盖度和较高的提取效率.  相似文献   

2.
王燕玲  曾国荪 《计算机应用》2015,35(12):3524-3529
在网络构件库中构件数量持续增长的情况下,为解决用户无法从质量参差不齐的海量构件中选取优质构件的问题,提出了一种基于构件使用依赖关系的复用可信度计算方法。该方法将构件库作为证据库,首先,对证据库中的构件依赖信息进行采集整理;接着,定义每一个构件的基本信任函数,在此基础上根据构件依赖信息的不同来源为每一条证据设置不同的可信权重值;然后,通过特定的转换算法将由此获得的结果生成构件最终的可信度。实例分析中,利用该方法评估构件取得的结果值与预想中的一致,且与参考构件的内部与外部质量模型所得出的结论相符,但该方法大大降低了构件可信评估的工作量,提高了评估效率。结果表明该方法能够客观反映构件的可信性,可作为构件库中构件检索的一种可信度量机制,帮助实现构件的优质检索和复用。  相似文献   

3.
随着Internet的发展,Web正在不断深人人们的生活.传统搜索引擎只能检索浅层网络(Surface Web),不能直接索引到深层网络(Deep Web)的资源.为了有效利用Deep Web资源,对Deep Web数据源发现并进行领域类别的划分,已成为一个非常迫切的问题.该模型首先抽取Deep Web页面查询接口的特征,构造了一个Deep Web页面过滤器,从而能够发现Deep Web的数据源,其次在对查询接12特征进行分析后,构建了一个基于KNN的分类器,并通过该分类器对新产生的Deep Web数据源进行领域分类.试验结果表明,这种模型的平均分类准确率达到86.9%,具有良好的分类效果.  相似文献   

4.
Deep Web蕴藏着海量信息,现有的搜索引擎很难挖掘到其中的内容。如何充分地获取Deep Web中有价值的信息成为一个难题。提出了基于语义相似度计算的Deep Web数据查询方法,该方法通过语义相似度计算作为中间件,计算出关键词和数据库属性词典对应列的相似度,从而将关键词的搜索范围限制在一个(或多个)相关领域,最后生成相应的SQL查询语句。试验证明,该方法能够有效地提高基于Deep Web的数据查询效率。  相似文献   

5.
随着Web数据库的广泛应用,Web正在不断“深化”。传统搜索引擎只能检索浅层网络,却不能直接索引到深层网络(Deep Web)的资源。为了有效地利用Deep Web资源,必须要对Deep Web数据进行大规模集成。其中,数据源发现是整合Deep Web资源的首要工作,能否高效地发现Deep Web站点是Deep Web数据获取的关键。提出了一种基于传统搜索引擎的Deep Web数据源发现方法,该方法通过分析返回结果来扩展查询,从而进一步提高了数据源发现的效率。实验证明该方法能得到较好的结果。  相似文献   

6.
基于贝叶斯网络的网格QoS可信度评估方法   总被引:3,自引:1,他引:2       下载免费PDF全文
提出一种基于贝叶斯网络的网格服务QoS可信度评估方法,用于实现信任增强的服务选择。该方法利用服务的历史性能信息建立贝叶斯网络,根据用户的QoS需求评估服务QoS的可信度,并解决传统方法中忽略QoS提供一致性的问题。实验结果表明,在动态的服务网格环境中,该方法能增强服务信息的可信度,提高服务匹配合理性。  相似文献   

7.
获取模式信息是深入研究Deep Web数据的必要步骤,针对Deep Web结果模式结构信息的丢失问题,提出了一种基于启发式信息的Deep Web结果模式获取方法.通过解析Deep Web结果页面数据,利用启发式信息为结果页面数据添加正确的属性名,进而得到对应Deep Web的结果模式,并对其进行规范化处理,解决不同数据...  相似文献   

8.
Deep Web中蕴含了海量可供访问的信息,如何构建一个具有较好适用性和高效数据处理能力的Deep Web数据集成系统是有效利用Deep Web信息的关键.提出一种基于结果模式的Deep Web数据集成机制,通过结果模式可以实现高效的数据抽取,并且在结果模式的基础上可以根据用户查询请求动态生成结果输出模式,为高效的查询结果处理奠定了良好基础;同时,针对Deep Web数据源特点,给出数据源间冲突的分类及解决策略,为解决数据源间的异构问题奠定了良好基础.  相似文献   

9.
基于可信度计算的网络接入认证模型研究   总被引:4,自引:1,他引:3  
由于远程终端本身的不安全性或合法身份被利用而导致内网安全事故,针对此问题,提出了一种基于可信度计算的网络接入认证模型,通过集成现有身份认证技术和可信度计算方法,动态计算终端的可信度值.当目标终端可信度低于设定值或访问超时,启动重新认证机制,从而弥补现有认证方法的不足.同时给出了该模型完整的执行过程.  相似文献   

10.
传统搜索引擎仅可以索引浅层Web页面,然而在网络深处隐含着大量、高质量的信息,传统搜索引擎由于技术原因不能索引这些被称之为Deep Web的页面。由于查询接口是Deep Web的唯一入口,因此要获取Deep Web信息就需判定哪些网页表单是Deep Web查询接口。文中介绍了一种利用朴素贝叶斯分类算法自动判定网页表单是否为Deep Web查询接口的方法,并实验验证了该方法的有效性。  相似文献   

11.
刘彬  张仁津 《计算机工程》2012,38(10):269-272
为对新Web服务的信任值做出公平的评估,提出一种基于Web服务社区的动态信任启动模型。通过Web服务的QoS获得担保信任值,使用愿意共享交易评价的记录求得经验信任值,对这2种信任值进行动态线性组合得到实际信任值,且担保信任值所占的比重随着交易次数的增加而动态减少。实验结果表明,该模型不仅使新Web服务能与长期存在的Web服务竞争,而且使用户免受欺诈。  相似文献   

12.
Online searches for reliable information present a challenge, given the enormous amount of information and variety of sources—many questionable sources offer information on Web sites with an appealing design, which may signal high credibility through appearance. Drawing on a persuasion perspective, conceptualizations for online information credibility, and information foraging theory, a main experiment (n = 574) and a follow‐up study (n = 293) examined influences of Web site sponsorship, Web site design appeal, and search engine ranking on online information credibility. Results show that sponsor credibility affected information assessment, whereas a more appealing Web site design could not compensate for low sponsor credibility. Additionally, a high search‐engine ranking increased sponsor credibility and thus influenced information credibility indirectly.  相似文献   

13.
Web服务中的信任和声誉评估模型   总被引:1,自引:0,他引:1  
对主观逻辑存在的一些问题进行分析和改进,并进一步提出一个基于主观逻辑的自适应Web服务信任模型iWSTrust。通过利用iWSTrust对Web服务环境的交易过程所涉及的实体间的各种信任关系进行详细的建模和推理,并区分不同类型的服务请求者,iWSTrust能够使实体的信任度和声誉随着交易经验的增加而自适应地改变,预测实体的未来行为,并对恶意欺骗的实体进行惩罚,从而更好地保护服务请求者和服务提供者的利益。模拟实验表明改进的主观逻辑能更好地建模信任关系和改善Web服务环境的安全性。  相似文献   

14.
互联网中,海量Web信息自由开放,真假有益危害信息混在一起,许多Web文本的内容不可信。如何正确判断Web文本内容的可信性,从而在海量的Web信息中选择有用可信的资源信息,是当前急需解决的问题。提出了一种基于信任模式验证的论述性Web文本可信性判定方法,首先定义论述性Web文本的信任模式并对信任模式进行形式化的描述,然后构建论述性Web文本阅读自动机,最后进行模型检测以判断论述性Web文本是否满足信任模式,并根据检测结果求解Web文本可信度。实验表明该方法具有良好的效果。  相似文献   

15.
一种高效的Deep Web内容获取技术   总被引:1,自引:0,他引:1  
近几年,对Deep Web的研究和实践,尤其在商业领域已经有了一定实质性的成果.但在对网络数据库内容获取上仍处于起步阶段.就Deep Web数据库内容的获取展开研究,设计一种属性值图的方法,从图形角度对数据库内容遍历,最终获取Deep Web内容.通过实验验证,证明该方法能有效地获取的大量Deep Web内容,用户可通过搜索引擎更方便快捷地查找,大大提高了索引的覆盖率和效率.  相似文献   

16.
An agent network can be modeled as a directed weighted graph whose vertices represent agents and edges represent a trust relationship between the agents. This article proposes a new recommendation approach, dubbed LocPat, which can recommend trustworthy agents to a requester in an agent network. We relate the recommendation problem to the graph similarity problem, and define the similarity measurement as a mutually reinforcing relation. We understand an agent as querying an agent network to which it belongs to generate personalized recommendations. We formulate a query into an agent network as a structure graph applied in a personalized manner that reflects the pattern of relationships centered on the requesting agent. We use this pattern as a basis for recommending an agent or object (a vertex in the graph). By calculating the vertex similarity between the agent network and a structure graph, we can produce a recommendation based on similarity scores that reflect both the link structure and the trust values on the edges. Our resulting approach is generic in that it can capture existing network-based approaches merely through the introduction of appropriate structure graphs. We evaluate different structure graphs with respect to two main kinds of settings, namely, social networks and ratings networks. Our experimental results show that our approach provides personalized and flexible recommendations effectively and efficiently based on local information.  相似文献   

17.
针对基于云模型的信任模型缺乏对反馈信息的可信度量以及风险评估等问题,提出一种新的信任模型。综合反馈实体的评价次数、评价行为一致性等因素对反馈者提交的评价信息进行可信度量,基于加权逆向云生成算法构造被评估实体的实体信任云,根据被评估实体的活跃度和实体信任云的数字特征参数进行交互风险的评估。仿真结果表明,该模型能较好地反映实体的行为特点,提高实体间的交互成功率。  相似文献   

18.
为了解决电子商务环境动态性和不确定性所带来的信任问题,本文提出了一种基于主客体信誉值的信誉计算模型,以此确定未知实体在线交易中的信任关系。该模型根据评分客户的信誉值大小来选择不同的评分权重,由此得到的信誉估计值更具客观准确性;同时,通过对恶意评分客户采取相应的惩罚措施来减少交易欺诈。仿真实验表明,该模型能客观地反映各交易方的信誉值变化情况,有效防止交易双方的欺诈。  相似文献   

19.
刘绮虹  武小年  杨丽 《计算机应用》2011,31(7):1887-1890
在信任计算中,推荐信任具有极强的主观性,存在欺骗、诋毁等攻击行为,这些将掩盖被推荐用户行为的真实性,威胁系统安全。针对该问题,提出一种基于用户行为的加权信任计算方法,使用时间衰减标识反馈信息的时间属性,通过直接信任和推荐信任加权计算用户信任度;同时采用反馈可信度评估第三方推荐信任的真实性。仿真实验表明该方法具有较好的动态适应性,能够有效平衡恶意推荐,准确反映用户的行为变化,并计算用户行为的可信性,为系统安全决策提供可靠支持。  相似文献   

20.
Pebble games are played on a directed acyclic graph (dag). Placing a pebble on a vertex may be thought of as entering the value of the subexpression represented by the vertex into accessible storage. In some applications, there are types associated with vertices e.g. some vertices may represent functions, others may represent function values. We are interested in determining if vertices of the same type can share storage. The problem considered is as follows. We are given a labelled dag to be pebbled. A pebble may be placed on a vertex if all sons of the vertex have pebbles—in fact it is legal to move a pebble from a son to a father. Pebbles may be picked up at any time. The objective is to pebble each vertex exactly once. We will be interested in ‘one pebblings of l vertices’ in which there is at most one pebble on vertices with label l, at all times; and ‘stack pebblings of l vertices’ in which the pebbled vertices with label l are along a path, at all times. Results about the existence of such pebblings are presented. The results have applications to testing serializability of database updates, and potential applications to semantics directed compiler generation.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号