首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 609 毫秒
1.
静态页面生成的网站系统研究   总被引:2,自引:0,他引:2  
董斌 《福建电脑》2009,25(8):160-160,109
本论文主要阐述一个基于静态页面生成的网站系统的后台操作过程、静态页面生成技术及其他相关关键技术。本系统的开发以节省资源为首,充分利用网络资源。应用静态页面生成机制,通过静态页面的生成来优化网站,运用数据库的连接来完成后台各个模块功能的实现。  相似文献   

2.
介绍一种基于硬件的、可编程的外存页面重映射机制,它可以明显地改善性能,并且由于减少了外存总线的访问而降低了功耗。另外还提出了一种把应用数据与指令存储器映射到外存页面的高效算法,使用图着色技术来支配页面映射程序,目标是通过把冲突页面重映射到不同的存储体来避免页面缺失。  相似文献   

3.
曾登高 《程序员》2005,(12):47-48
Web标准日渐流行:Web标准采用CSS来定位页面,主要好处在于缩小了页面大小,布局更加随意,也有利于页面和代码的分离,吸引了很多大网站采用XHTML标准来进行网  相似文献   

4.
高集荣  田艳  邵海英 《计算机应用》2009,29(4):1099-1101
提出了双阈值用户事务算法。根据用户所访问的页面数来判断该用户是否为偶然用户,利用网络的拓扑结构和网页最低兴趣度来衡量一个网页是否为用户感兴趣的页面。改进了数据预处理过程,删除了偶然用户引起的访问记录,以及链接页面和用户不感兴趣的页面,生成一种有效的访问页面序列,即双阈值用户事务。通过事例对算法的有效性进行了论证。  相似文献   

5.
最近,spam页面急剧增加,这极大的影响了搜索引擎的精度和效率。如何抵御spam页面已经成为一个非常重要的问题。文章合并了基于内容来侦测spam页面和基于链接spam侦测spam页面的方法,从而提出了一个两步的侦测spam页面的方法。第一步是一个过滤的步骤,用于生成spam页面的候选列表;第二步,通过一个自动的分类器从候选页面中侦测出最终的spam页面。  相似文献   

6.
针对目前Web聚类准确率不高的问题,提出一种基于Web页面链接结构和页面中图片主色调特征的聚类算法。通过分析Web页面中的链接结构和Web页面中所显示图片的主色调来比较页面之间的相似度,对Web站点中的Web页面进行聚类。聚类过程兼顾Web页面结构和页面的主要色彩特征。系统实验结果表明,该算法能有效提高聚类的准确性。  相似文献   

7.
戴东波  印鉴 《计算机科学》2006,33(4):126-129
现有的静态Web站点结构不能满足人们准确地找到所需信息和享用个性化服务的要求。本文不但通过Web日志文件的挖掘,找出用户的频繁访问路径来改进Web站点结构,而且分析当前访问页面与后续候选推荐页面的内容相关性,形成经过内容裁剪的个性化页面来压缩Web页面内容。这样,用户可快速定位到频繁访问的后续页面位置,且页面内容大多是用户感兴趣的主题信息。在此基础上,提出了一个自适应站点模型AdaptiveSite,经过推荐质量分析,该模型具有较好的优化性能。  相似文献   

8.
在实际的复杂的应用中,通常会遇到将几个页面作为输入来等候一同处理.例如可能因为用户创建的页面太长而将其分为两个页面,在处理数据时候就必须区分是那个页面提交的数据.本文通过具体实例,使用设置session的办法来解决这一实际问题.  相似文献   

9.
蒋涛  张彬 《计算机与数字工程》2007,35(11):76-78,152
最近,spam页面急剧增加,这极大的影响了搜索引擎的精度和效率.如何抵御spam页面已经成为一个非常重要的问题.合并基于内容来侦测spam页面和基于链接spam侦测spam页面的方法,提出一个两步侦测spam页面的方法.第一步是一个过滤的步骤,用于生成spam页面的候选列表;第二步,通过一个自动的分类器从候选页面中侦测出最终的spam页面.  相似文献   

10.
Web日志会话的个性化识别方法的研究   总被引:2,自引:1,他引:1       下载免费PDF全文
会话识别是Web日志挖掘中的重要步骤。针对目前的各种会话识别方法,提出了一种改进的基于页面内容、下载时间等多个参数综合得到的针对每个用户的个性化识别方法。该方法通过使用访问时间间隔,判断是否在极大、极小两个阈值范围内来识别会话。根据页面内容、站点结构确定页面重要程度,通过页面的信息容量确定用户正常的阅读时间,通过Web日志中页面下载时间来确定起始阅读时间,对以上因素进行综合后对该阈值进行调整。实验结果表明,相对于目前的对所有用户页面使用单一先验阈值进行会话识别的方法及使用针对用户页面的阈值动态调整方法,提出的方法能更准确地个性化确定出页面访问时间阈值,更为合理有效。  相似文献   

11.
采用WeX5平台来开发基于HTML5+JS+CSS3,适用于Android操作系统的记账本App,利用MySQL数据库来做后端数据服务支持,完成账目列表页面和记一笔页面分类数据存储.记账本App一共分为4个部分:账目列表、记一笔、分类页面、主页,分别介绍了各页面的开发与设计过程.  相似文献   

12.
Maxthon可以在同一个窗口中打开多个页面,不但节约 系统资源,还为用户上网冲浪提供了很大的方便,但同时打 开多个网页后,要想随意切换页面就很麻烦。通常情况,我 们是用鼠标去挨个点击需要浏览的页面;其实,我们还可以 利用一些小技巧来快速切换浏览页面。 使用快捷键 在Maxthon浏览器中自定义了一些快捷键来快速切换页 面,如:按下“Ctr1 1”、“Ctrl 2”可以快速在页面1 与页面2之间切换,十分简单。这种办法只适合于打开页面 在10个以内时使用。  相似文献   

13.
网络钓鱼Web页面检测算法   总被引:4,自引:0,他引:4       下载免费PDF全文
网络钓鱼(Phishing)攻击在电子商务和电子金融中普遍存在。该文分析Phishing页面敏感特征,提出一种防御Phishing攻击的Web页面检测算法。该算法通过分析Web页面的文档对象模型来提取Phishing敏感特征,使用BP神经网络检测页面异常程度,利用线性分类器判断该页面是否为Phishing页面。该算法成功过滤了Phishing页面,有效地阻止了Phishing攻击。  相似文献   

14.
基于时间链接分析的页面排序优化算法*   总被引:1,自引:0,他引:1  
鞠时光  吕霞   《计算机应用研究》2009,26(7):2438-2441
传统的页面排序算法偏重于旧网页,使得一些旧的页面经常出现在检索结果的前面。为了改进此类算法,引入时间链接分析,使用爬虫抓起页面时HTTP协议反馈回来的修改时间作为页面和链接的时间,并综合考虑页面的出入链接个数和时间来计算页面的权重值。开发出的WTPR算法能使新网页集在排序中上升,高质量的旧网页比普通的旧网页能获得较高的排序值。  相似文献   

15.
Web结构挖掘中基于熵的链接分析法   总被引:1,自引:0,他引:1  
王勇  杨华千  李建福 《计算机工程与设计》2006,27(9):1622-1624,1688
在Web结构挖掘中,传统的HITS(hyperlinkinducedtopics search)算法被广泛应用来寻找搜索引擎返回页面中的Auto-rity页面和Hub页面.但是在网站中除了有价值的页面内容外,还有很多与页面内容无关的链接,如广告、链接导航等.由于这些链接的存在,应用HITS算法时就会导致某些广告网页或无关网页获得较高的Authority值和Hub值.为了解决这个问题,在原有HITS算法的基础上,引入了香农信息熵的概念,提出了基于熵的网页链接分析方法来挖掘网页结构.该算法的核心思想是用信息熵来表示链接文本所隐含的知识.  相似文献   

16.
结合网站内容和结构进行的Web日志挖掘   总被引:7,自引:1,他引:7  
提出一种以聚类为基础的Web日志挖掘方法:从Web日志事务、Web站点内容和Web站点结构3个不同方面来聚类页面集合,并通过将用户的访问记录和页面聚集进行匹配和相关度计算,来预测用户感兴趣的页面。  相似文献   

17.
在规划Dreamland公司网站的时候,我们曾将该站点分成了五个主题,前两次已分别创建了主页和“公司背景”页面,这次我们就来创建“联系信息”页面及其他页面。在开始之前让我们先看一下“联系信息”页面的最终效果图。  相似文献   

18.
使用多页面浏览器(如Maxthon、Firefox 等)打开网页时,一般情况下,我们都是通过鼠标 单击页面的标签,或把鼠标指针移动到标签栏上, 再转动鼠标滚轮来实现页面的切换。其实, Firefox还有一些小技巧,可以快速实现不同页面 间的切换。  相似文献   

19.
苟强强 《软件》2014,(11):1-4
移动手持设备因其屏幕小,有限的计算及存储能力而不便浏览普通Web页面;另一方面,对于手机用户,本着用户个性定制以及降低费用的原则也有必要对现有Web页面进行重构。目前没有一种良好的机制能够使Web内容根据不同设备的大小来适配成不同的页面。该文给出一种通过脚本指令定义Web页面的方法来实现自适应不同的移动设备。与其他方法相比,该机制在个性定制化、经济性、转换速度方面有着较为突出的优势。  相似文献   

20.
基于Web页面链接和标签的聚类方法   总被引:1,自引:0,他引:1  
针对目前Web聚类效率和准确率不高的问题,提出一种基于Web页面链接结构和标签信息的聚类方法CWPBLT(clustering web pages based on their links and tags),它是通过分析Web页面中的链接结构和重要标签信息来比较页面之间的相似度,从而对Web站点中的Web页面进行聚类,聚类过程同时兼顾了Web页面结构和页面标签提供的内容信息.实验结果表明,该方法有效地提高了聚类的时间效率和准确性,是对以往仅基于页面主题内容或页面结构聚类方法的改进.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号