首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
在无线传感器网络中使用移动Sink能有效延长网络寿命。提出一种在容忍延迟传感器网络中基于分簇的移动Sink动态路由算法MSDR(Mobile Sink Dynamic Routing),移动Sink根据簇头位置构建遍历所有簇头的Hamilton回路,并沿着该路径收集数据。进一步提出基于标记的数据缓存机制,有效解决算法中每一轮之间的数据存储问题。仿真实验结果表明,MSDR算法使网络具有较长的生命周期,能有效平衡网络能耗。  相似文献   

2.
位置感知查询(LAQ)是移动系统中常用的一种查询方式。提出了一种位置感知查询中的协作缓存管理技术(CoMA-LA),该方法包括三方面的内容:(1)缓存中语义相近数据项的合并;(2)相邻缓存间的协作替换策略;(3)缓存间的数据一致性保证。通过仿真实验将CoMA-LA和传统的LRU算法以及一些已有的缓存替换方法进行了比较,实验结果表明采用CoMA-LA技术能够有效提高缓存利用率,从而降低平均访问时间,提高查询命中率。  相似文献   

3.
基于语义缓存的移动查询导出   总被引:19,自引:2,他引:19  
吴婷婷  周兴铭 《计算机学报》2002,25(10):1104-1110
在移动环境下,客户缓存为提高客户-服务器数据库系统的整体性能,特别是保证客户端数据可用性提供了有效途径,该文针对如何从基于语义描述的缓存中导出当前查询(部分)结果的问题,研究了查询从缓存导出的充分条件,并在定义查询与缓存之间的精确匹配,包含匹配和相互匹配几种情况的基础上,给出缓存与查询,包含与相交匹配的判断条件和相应的算法,基于该文的研究,查询可以充分利用本地语义缓存的内容,从而降低网络开销,加快响应时间,并支持移动客户断接时的数据访问。  相似文献   

4.
位置感知查询(LAQ)是移动系统中常用的一种查询方式。提出了一种共享代理缓存(CoPC)技术,当LAQ查询失败时通过比较将查询提交至相邻基站和数据库的代价,从而实现动态的查询转发。通过仿真实验表明了采用CoPC技术能够有效的平衡数据库和LAQ代理的负载,减少查询延迟,提高查询命中率。  相似文献   

5.
移动对等网络由于电池能源、无线带宽的限制和用户的频繁移动而只能提供约束的通信环境.这些特征使得信息共享和数据检索成为一个具有挑战性的问题.扩展缓存技术并将其引入移动对等网络,提出了一种适应于移动对等环境的新的数据查询策略,并给出了算法实现.实验表明,该策略可以有效地支持大规模移动对等网络的可升级的数据查询.  相似文献   

6.
移动无线传感器网络中,针对节点基于随机运动模型的路由问题,提出一种基于虚拟货币的低能耗路由策略——DTVC。根据节点的属性和数据消息的属性进行买方和卖方的定价并据此选择转发节点。为了提升网络性能,通过控制数据消息的副本数以及对节点的缓存队列中的数据消息排序,把网络中的节点分为源节点和中继节点,只有数据消息的源节点可以复制该数据消息,并依据数据消息的延迟容忍度对消息进行排序,延迟容忍度越小则优先级越高。为了减少网络中的能量消耗,根据sink节点广播的消息删除缓存队列中已经传输成功的数据消息。在Matlab上的仿真实验结果表明,与基于消息容错的自适应数据传输算法(FAD)、基于距离和能量感知模糊逻辑的路由算法(FLDAER)和基于能耗自选演进机制的路由算法相比,DTVC的数据消息投递率至少提高2.5%,平均副本数至少减少25%。  相似文献   

7.
针对移动Widget无法脱机访问或网络延迟现象严重问题,提出了一种基于HTML 5.0技术的移动Widget引擎内容缓存模型,将网络端数据进行智能的下载和存储,通过使用HTML 5.0技术,合理地安排各种移动Widget应用的网络数据;同时根据用户的访问信息和移动Widget技术的原理特性,使用缓存淘汰策略、充分利用缓存空间使系统具有较好的性能.最后通过实验验证该模型可以有效解决Widget脱机访问和网络不良问题,从而提高访问速度和减少数据流量、节省终端电量和资源的消耗.  相似文献   

8.
针对MANET环境中带宽有限、能量有限、存储有限和链路频繁的断接性等特点,提出了基于缓存的移动数据查询问题,证明该问题是NP完全问题,并给出一个多项式时间的近似算法,即最大节点新覆盖数据算法MD.该算法采用贪心策略,查询新覆盖数据量最大的节点,减少了查询次数,并最大限度地减少了网络中的传输时延.然后在MD算法的基础上,同时考虑了节点新覆盖数据量和链路服务质量问题,提出了一种改进的高效的启发式算法,即基于最大节点DD值的算法MDD,有效地减少了能量消耗,最小化数据传输时延,提高了网络的吞吐量.理论分析及实验结果表明提出的数据查询算法能够充分利用缓存节点的数据信息,较好地完成数据查询工作,有效地减少数据收集时延,提高查询效率.  相似文献   

9.
移动P2P网络中超级节点的选择   总被引:1,自引:0,他引:1       下载免费PDF全文
相有桓  熊焰  苗付友 《计算机工程》2010,36(10):103-104
针对移动P2P网络中节点移动性强、网络拓扑结构变化剧烈、导致系统的低效和不可靠问题,提出一种移动P2P网络中的超级节点选择算法,该算法能够选择性能好、在线时间长的节点作为超级节点,并且采用候补超级节点技术,有效改善移动P2P网络系统的效率。仿真实验结果表明,该算法可以有效降低超级节点的失效率和缩短查询延迟。  相似文献   

10.
梁茹冰  刘琼 《计算机科学》2014,41(3):132-136
回调算法是一种由服务器驱动的缓存管理算法,存在"写延迟"和终端断接重连时需重新验证缓存的问题,为此提出利用代理技术验证缓存一致性的方法。首先,给出Client/MSS/Server结构,设计并说明各层代理的功能;其次,从客户端的数据访问操作和服务器端的写操作两方面讨论缓存一致性验证方法。利用代理管理客户端缓存和转发失效数据,既可满足终端断连的需要,也不致产生服务端的写延迟,并能够保持数据的强一致性。实验表明,所提方法使终端断接重连的查询响应时间更快,并能弥补回调算法的不足,更加适用于终端频繁移动、断接的无线网络环境。  相似文献   

11.
为了解决在分布式环境下,Web-OLAP系统并发访问量急剧增加导致OLAP服务器负担过重的问题,提出一种基于分布式数据缓存技术的Web-OLAP系统。给出了该系统的总体框架和分布式缓存数据的表示,并设计了分布式缓存数据的管理算法。具体的应用实例表明,该方法可以有效地提高分布式环境下Web-OLAP系统的访问效率,较大缩短系统的响应时间。  相似文献   

12.
大规模数据排序、搜索引擎、流媒体等大数据应用在面向延迟的多核/众核处理器上运行时资源利用率低下,一级缓存命中率高,二级/三级缓存命中率低,LLC容量的增加对IPC的提升并不明显。针对缓存资源利用率低的问题,分析了大数据应用的访存行为特点,提出了针对大数据应用的两种众核处理器缓存结构设计方案,两种结构均只有一级缓存,Share结构为完全共享缓存,Partition结构为部分共享缓存。评估结果表明,两种方案在访存延迟增加不多的前提下能大幅节省芯片面积,其中缓存容量较低时,Partition结构优于Share结构,缓存容量较高时,Share结构要逐渐优于Partition结构。由于众核处理器中分配到每个处理器核的容量有限,因此Partition结构有一定的优势。  相似文献   

13.
为解决面向服务环境下多领域业务过程协同中的语义不一致问题,使不同领域提供的Web服务实现无障碍交互以及数据和知识共享,提出基于本体映射的多领域业务过程协同框架。首先根据领域知识建立参考本体,然后根据各领域的参考本体生成领域间的协同本体,最后将协同本体通过映射转换到BPEL和WSDL文件。该方法能够保留流程与Web服务中的原始语义信息,从而保证不同领域业务过程协同地顺利进行。原型系统在欧盟ImportNET项目中得到了验证。  相似文献   

14.
杨冬菊  冯凯 《计算机科学》2018,45(3):300-304, 310
企业在进行应用系统集成时,普遍使用独立的身份认证系统来实现平台中身份信息的交换和共享。如何应对高并发、大用户流量的用户请求,是保障认证系统稳定、高效运行的重要问题。针对单认证中心负载过重,容易出现单点失效及系统响应慢的问题,提出了将认证服务器集群化的方案;将认证票据存储在缓存使得多个认证节点共享认证信息,并将重要且频繁使用的数据预存到缓存中以提高响应速度;结合复杂多样的用户行为提出了基于Hybrid的多因素缓存替换算法。实验结果表明,所采用的基于缓存的分布式认证架构能够保证系统的稳定性,提高系统的响应速度,改进的缓存替换算法提高了缓存命中率。  相似文献   

15.
Caches are essential to bridge the gap between the high latency main memory and the fast processor pipeline. Standard processor architectures implement two first-level caches to avoid a structural hazard in the pipeline: an instruction cache and a data cache. For tight worst-case execution times it is important to classify memory accesses as either cache hit or cache miss. The addresses of instruction fetches are known statically and static cache hit/miss classification is possible for the instruction cache. The access to data that is cached in the data cache is harder to predict statically. Several different data areas, such as stack, global data, and heap allocated data, share the same cache. Some addresses are known statically, other addresses are only known at runtime. With a standard cache organization all those different data areas must be considered by worst-case execution time analysis. In this paper we propose to split the data cache for the different data areas. Data cache analysis can be performed individually for the different areas. Access to an unknown address in the heap does not destroy the abstract cache state for other data areas. Furthermore, we propose to use a small, highly associative cache for the heap area. We designed and implemented a static analysis for this cache, and integrated it into a worst-case execution time analysis tool.  相似文献   

16.
We're investigating a specific pervasive architecture that can maintain continuous connections among MANET devices. We're targeting this architecture for computer-supported-cooperative-work (CSCW) and workflow management applications that would constitute the coordination layer. The basic problem of such an architecture is, how do you predict possible disconnections of devices, to let the coordination layer appropriately address connection anomalies? To solve this problem, we've developed a technique for predicting disconnections in MANETS. This technique serves as the basic layer of an innovative pervasive architecture for cooperative work and activity coordination in MANETS. We believe that in emergency scenarios, our proposed pervasive architecture can provide more effective coordination among team members.  相似文献   

17.
VxWorks 653分区进程间大数据共享方法研究   总被引:1,自引:0,他引:1  
徐克  熊智勇  李奎 《测控技术》2016,35(11):98-102
VxWorks 653提供的API在实现分区进程间大数据共享时,会出现系统资源消耗过大、内存无法回收利用等问题,而且不能保证共享数据的更新率和连续性.为此,设计并实现了一种基于双缓存机制的数据共享方法.这种方法动态创建两块缓存,根据进程不同优先级进行读、写、释放内存等操作,实现数据共享.实验结果证明,这种双缓存机制能在不影响系统调度的情况下,高效完成进程间的大数据共享,并且该方法可以有效节省系统资源,具有良好的通用性和可移植性.  相似文献   

18.
In recent years, processor technology has evolved towards multicore processors, which include multiple processing units (cores) in a single package. Those cores, having their own private caches, often share a higher level cache memory dedicated to each processor die. This multi-level cache hierarchy in multicore processors raises the importance of cache utilization problem. Assigning parallel-running software components with common data to processor cores that do not share a common cache increases the number of cache misses. In this paper we present a novel approach that uses model-based information to guide the OS scheduler in assigning appropriate core affinities to software objects at run-time. We build graph models of software and cache hierarchies of processors and devise a graph matcher algorithm that provides mapping between these two graphs. Using this mapping we obtain candidate core sets that each software object can be affiliated with at run-time. These affiliations are determined based on the idea that software components that have the potential to share common data at run-time should run on cores that share a common cache. We also develop an object dispatcher algorithm that keeps track of object affiliations at run-time and dispatches objects by using the information from the compile-time graph matcher. We apply our approach on design pattern implementations and two different application program running on servers using CFS scheduling. Our results show that cache-aware dispatching based on information obtained from software model, decreases number of cache misses significantly and improves CFS’ scheduling performance.  相似文献   

19.
在终端直传(D2D)缓存网络中,用户有限且各异的缓存能力是制约缓存效率的一个关键参数,然而现有文献大多考虑不同用户具有相同的缓存能力,针对这一不足有必要进行用户具有不同缓存容量下的D2D内容缓存布设方案优化。首先,鉴于用户终端的移动性和随机分布特性,利用随机几何理论将网络中不同缓存容量的用户节点建模为相互独立的齐次泊松点过程;其次,考虑本地卸载和邻近D2D链路卸载两种内容卸载方式,推导得到网络缓存命中率;最后,将最大化缓存命中率作为优化目标函数,提出了基于坐标梯度的联合缓存布设(JCP)算法,从而得到多用户多缓存容量场景下的内容缓存布设方案。仿真结果表明,与现有的缓存布设方案相比,由JCP得到的缓存布设方案可以有效提高缓存命中率。  相似文献   

20.
制造工艺的快速进步给集成电路设计提供了广阔的空间,而发展较慢的设计能力导致难以对片上资源高效利用。目前,高性能处理器片上Cache普遍占到芯片总面积的一半以上,而如何高效、智能地利用片上Cache空间,构建高性能存储系统是处理器微体系结构研究的重要内容。分析了Cache数据污染和猜测执行对处理器性能的影响,并在此基础上提出一种基于数据Tag有效位分裂的无污染Cache访问控制技术-Pease,将原先D-Cache Tag中的一位数据有效位扩展为读数据有效位(RVB)和写数据有效位(WVB)两位,根据RVB和WVB值的不同组合对数据读写访问进行控制。不但充分保留了猜测执行的数据预取性,使污染数据透明化,写入数据时无需对污染数据进行替换操作,消除了污染数据对Cache效率的影响。Pease技术相对于baseline结构来说,IPC的提升幅度为1.05%~8.40%,平均提升4.04%;L1 D-Cache缺失率降低幅度为19.05%~48.16%,平均降低29.66%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号