首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 93 毫秒
1.
从理论上分析了一种自适应网站性能优化算法.该算法以Web站点的URL为行、以用户的UserID为列,建立URL_UserID关联矩阵,对行向量进行分析获得频繁闭相关页面集,对频繁闭相关页面集进一步处理发现频繁访问路径.Web站点可根据频繁路径自动改进链接结构,提高Web站点对所有用户的整体服务性能.  相似文献   

2.
Web日志的高效多能挖掘算法   总被引:76,自引:0,他引:76  
通过对Web服务器日志文件和客户交易数据进行分析,可以发现相似客户群体、相关Web页面和频繁访问路径,提出了一种新颖的Web日志挖掘算法。在该算法中,首先以Web站点URL为行、以UserID为列建立URL-UserID关联矩阵、元素值为用户的访问次数,然后,在列向量进行相似性分析得到相似客户群体,对行向量进行相似性度量获得相关Web页面,对后者再进一步还可以发现频繁访问路径。实验结果表明了算法的有效性。  相似文献   

3.
Web站点导航是Web数据挖掘的一个重要研究领域,是准确理解用户访问网站行为的关键;传统Web站点导航技术很难全面反映出用户对页面浏览的兴趣程度,找到用户感兴趣页面路径准确度比较低;为提高找到用户感兴趣页面路径准确度,提出一种基于蚁群算法的Web站点导航技术;将网络用户看作人工的蚂蚁,用户的浏览兴趣作蚂蚁的信息素,通过利用Web日志数据采用正负反馈机制和路径概率选择机制建立一个Web站点导航模型,挖掘用户感兴趣页面的导航路径;仿真实验结果表明,基于蚁群算法的Web站点导航技术提高了找到用户感兴趣页面路径准确度,更加能够准确反映出用户的浏览兴趣,用于Web站点导航是可行的。  相似文献   

4.
戴东波  印鉴 《计算机科学》2006,33(4):126-129
现有的静态Web站点结构不能满足人们准确地找到所需信息和享用个性化服务的要求。本文不但通过Web日志文件的挖掘,找出用户的频繁访问路径来改进Web站点结构,而且分析当前访问页面与后续候选推荐页面的内容相关性,形成经过内容裁剪的个性化页面来压缩Web页面内容。这样,用户可快速定位到频繁访问的后续页面位置,且页面内容大多是用户感兴趣的主题信息。在此基础上,提出了一个自适应站点模型AdaptiveSite,经过推荐质量分析,该模型具有较好的优化性能。  相似文献   

5.
自适应网站能够提高网站对用户的服务质量。本文首先给出自适应网站的总体框架,对框架中主要模块做详细的分析,包括数据预处理、数据挖掘、页面推荐和站点调整。在数据挖掘模块给出一种有效的识别用户访问模式的算法,该算法利用数据库查询简化频繁最大前向访问路径集的查找,并在此基础上形成频繁访问路径图,为页面推荐和站点调整做好准备。最后给出自适应网站的设计原则。  相似文献   

6.
用户对Web网站访问兴趣可以通过页面的浏览顺序表现出来,Web站点的访问日志记录了用户访问页面的详细信息.介绍Web站点访问日志挖掘的相关知识,并定义新的兴趣度,相似度和聚类中心,提出了一种基于用户访问兴趣的路径聚类算法,最后通过实验来验证这种算法的有效性.  相似文献   

7.
本文提出了基于关联规则的挖掘最大频繁访问的新算法——s-Tree算法,并以此去分析用户的访问模式,挖掘出特定用户访问模式和浏览偏爱路径信息,进而优化站点结构,为用户提供“一对一”个性化的Web页面访问预测及内容推荐。  相似文献   

8.
设计实现了一种从Web日志挖掘用户频繁访问路径的模型.提出网页聚类分析的一个重要基础理论,以及页面价值和跳转偏爱度的概念,并建立页面价值模型.该模型从页面价值-用户矩阵计算出页面价值间的加权欧氏距离,并由距离大小获得等价值页面集.再根据跳转偏爱度把等价值页面集转化为2-项频繁访问子路径集,并经过自适应的合并算法得到最终的频繁访问路径集.实验证明该页面价值模型能高效获得更精准的频繁访问路径.  相似文献   

9.
在分析现有挖掘用户频繁路径技术不足的基础上提出算法MUFPS(Mining User Frequent Paths based on Supportability).该算法主要通过用户会话文件计算出所有被请求页面各自的支持度总和,并结合Web站点结构挖掘出该用户的频繁访问路径.通过实验对比证明该算法能有效地提高挖掘效率,同时保证了挖掘结果的准确性和可靠性.  相似文献   

10.
随着3G时代的到来,手机上网已逐步普及,由于手机屏幕较小及上网带宽限制,需要为手机访问者提供只需保留原Web站点主干分支的WAP子网。WWW上用户的访问路径信息会被记录在Web服务器的日志记录中,分析这些日志并挖掘出用户的主要行为模式,可以提取出Web网站被频繁访问的主干部分。首先将原始日志序列转化成用户访问路径会话集UVPSD,然后通过约束的加权网站结构图WWSSG,最终实现了此Web站点的频繁主干子网的发现。在上海社区网上采用此算法提取出的3G WAP子网,实验数据表明,该子网覆盖了上海社区网的大部分热门栏目页面。  相似文献   

11.
于华  张文盛 《办公自动化》2012,(12):23-24,29
Web日志挖掘的研究对象是Web日志数据,挖掘的对象是提供服务的网站的信息,挖掘结果可以帮助改善网站的设计,本文基于Web日志挖掘提出一种网站优化方案,本方案采用AprioriAll算法对用户频繁访问路径进行挖掘,根据挖掘结果进行模式分析,最终实现网站结构的调整、优化,提高用户满意度和站点的访问率。  相似文献   

12.
一种基于最大频繁项目集的挖掘事务间关联规则方法   总被引:1,自引:0,他引:1  
任永功  张琰渝 《计算机科学》2008,35(11):185-188
Web事务间关联规则挖掘是通过发现网页之间的关联关系来预测用户的兴趣。提出一种新的事务间关联规则挖掘方法,通过对MAFIA算法改进,得到最大频繁项目集的同时得到对应的共有用户集,通过对事务内到事务间最大频繁项目集的转换,分析不同用户之间的关系,分析用户对网站上不同网页的访问数据,直接发现不同用户之间的关联关系来预测用户的兴趣。该方法经试验证明能够更加全面的预测用户感兴趣的网页,更好地为用户提供个性化服务。  相似文献   

13.
汤亚玲  秦峰 《微机发展》2007,17(8):40-42
Web关联规则挖掘研究用户对Web站点上不同页面之间的访问规律,为智能Web站点的个性化服务提供知识依据。文中讨论在Web使用挖掘中如何实现关联规则挖掘与访问序列相结合,挖掘切实有效的关联规则;具体阐述如何构造最大向前路径,并将关联规则与最大向前路径匹配、过虑的过程。试验证明得到的关联规则可作为智能Web站点的有效知识依据。  相似文献   

14.
Effectively finding relevant Web pages from linkage information   总被引:3,自引:0,他引:3  
This paper presents two hyperlink analysis-based algorithms to find relevant pages for a given Web page (URL). The first algorithm comes from the extended cocitation analysis of the Web pages. It is intuitive and easy to implement. The second one takes advantage of linear algebra theories to reveal deeper relationships among the Web pages and to identify relevant pages more precisely and effectively. The experimental results show the feasibility and effectiveness of the algorithms. These algorithms could be used for various Web applications, such as enhancing Web search. The ideas and techniques in this work would be helpful to other Web-related research.  相似文献   

15.
Web关联规则挖掘研究用户对Web站点上不同页面之间的访问规律,为智能Web站点的个性化服务提供知识依据。文中讨论在Web使用挖掘中如何实现关联规则挖掘与访问序列相结合,挖掘切实有效的关联规则;具体阐述如何构造最大向前路径,并将关联规则与最大向前路径匹配、过虑的过程。试验证明得到的关联规则可作为智能Web站点的有效知识依据。  相似文献   

16.
本文设计实现了一种Web信息检索系统,面向有特定需求的特殊用户群,采用基于web站点处理的情报采集策略。先对各站点页面随机采样,提取出包含敏感信息页面的web站点,再采集敏感站点中的相关页面生成本地敏感资源库,并对库中的文本页面用改进的TFIDF算法分析处理,以满足用户的查询。该系统能够提高Web页面信息的检索精确度和检测更新率,并可据某一专题方向对Web站点进行简单的自动分类。  相似文献   

17.
Our current understanding of Web structure is based on large graphs created by centralized crawlers and indexers. They obtain data almost exclusively from the so-called surface Web, which consists, loosely speaking, of interlinked HTML pages. The deep Web, by contrast, is information that is reachable over the Web, but that resides in databases; it is dynamically available in response to queries, not placed on static pages ahead of time. Recent estimates indicate that the deep Web has hundreds of times more data than the surface Web. The deep Web gives us reason to rethink much of the current doctrine of broad-based link analysis. Instead of looking up pages and finding links on them, Web crawlers would have to produce queries to generate relevant pages. Creating appropriate queries ahead of time is nontrivial without understanding the content of the queried sites. The deep Web's scale would also make it much harder to cache results than to merely index static pages. Whereas a static page presents its links for all to see, a deep Web site can decide whose queries to process and how well. It can, for example, authenticate the querying party before giving it any truly valuable information and links. It can build an understanding of the querying party's context in order to give proper responses, and it can engage in dialogues and negotiate for the information it reveals. The Web site can thus prevent its information from being used by unknown parties. What's more, the querying party can ensure that the information is meant for it.  相似文献   

18.
郭孝园  何臻 《工矿自动化》2012,38(8):100-104
为了解决煤矿企业网站用户查找信息难的问题,提出了一种基于Web日志的煤矿企业网站个性化推荐服务模型。该模型应用关联规则对新用户进行页面推荐,应用聚类算法对老用户进行页面推荐;并结合点击网页的次数、网页的浏览时间、雅可系数与最长公共路径系数来度量用户兴趣度的方法,可为用户准确地推荐其感兴趣的页面。测试结果表明,该模型能够有效地对网页资源进行分类并进行个性化推荐。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号