首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
当多个处理器(CPU)核心和集成图形处理器(GPU)共享片外主存时,CPU和GPU应用程序会竞争关键内存资源,导致严重的资源竞争,并对系统整体性能产生负面影响。本文描述了CPU-GPU异构多核架构下共享内存资源的竞争情况,提出一种基于感知和预测的批处理共享内存请求调度策略。该策略通过感知请求缓冲区中CPU和GPU内存请求情况,估计GPU延迟容忍度,并通过批量处理CPU或GPU内存请求减少CPU和GPU之间的相互干扰。实验结果表明,CPU性能提升8.53%,相互干扰降低10.38%,该调度策略具有较低硬件复杂度。  相似文献   

2.
针对嵌入式处理器中旁路转换缓冲(TLB)功耗和面积显著的问题,提出一种共享高速缓存硬件资源的低功耗TLB设计方法,消除了传统方法中TLB存储器的硬件资源及静态功耗.该方法通过设立两级TLB低功耗架构和缓存地址映射表,有效减少TLB的访问次数,降低了功耗;利用高速缓存的结构特性动态扩展TLB表项,扩大对物理内存的映射范围,提升TLB命中率.进一步提出了一种复用缓存替换策略的TLB表项的编码加锁方法,减少页面抖动,缓和TLB表项与指令、数据的资源冲突.实验结果表明:与传统的TLB设计相比,应用本方法的嵌入式处理器的功耗下降28.11%,面积减少21.58%.  相似文献   

3.
在已有前缀缓存和分段缓存算法研究的基础上,提出了基于焦点分段的流媒体代理缓存策略。该策略考虑到不同流媒体对象在流行性方面的差异和同一对象不同段落上访问频率的差异,以段落的流行度作为空间调度的依据,融合了部分前缀缓存的方法,避免了自适应滞后分段缓存算法在延时启动率方面的不足。实验结果表明:基于焦点分段的缓存策略在字节命中率、延时启动率等方面都取得了较好的效果,缓存空间的利用率和节省网络带宽的能力都有所提高。  相似文献   

4.
针对中央处理单元-图形处理单元(central processing unit-graphics processing unit,CPU-GPU)异构计算系统中,CPU和GPU负载不均导致系统性能降低的问题,提出了一种基于队列的混合调度策略.该策略通过探测获得CPU和GPU处理指定任务的计算能力,将计算任务按照探测比例分配给CPU和GPU;将并行任务存入双向队列,以降低调度带来的额外开销.结果表明,使用该策略的基准测试程序系统性能平均提升了28.07%.总体而言,该调度策略能够缩短CPU与GPU完成各自计算任务后的等待时间,有效平衡系统CPU与GPU之间的负载,提升系统性能.  相似文献   

5.
针对信息中心网络缓存放置策略和路由转发策略,提出了一种基于缓存价值的路由转发和缓存放置策略.在缓存价值决策中,考虑到节点繁忙度和路径时延因素,利用夏普利值设计了支持决策的报文格式和路由转发策略;在缓存放置策略中,使用Scope字段,控制缓存副本个数和放置的范围.仿真实验结果表明,该策略有较高的缓存命中率,能有效地减少平均请求跳数.  相似文献   

6.
在内容中心网络中,全局缓存放置算法无法对新生内容实时缓存放置进行优化,对此,提出一种缓存放置与替换的联合优化算法,可减小缓存节点业务负载和用户内容获取的时延.定义了整网缓存收益函数,构建了最大化整网缓存收益的最优化问题,以实现新生内容的缓存放置与已存内容的缓存替换.为了求解所提的优化问题,将所提优化问题分解为缓存放置子问题和缓存替换子问题,提出了一种全局缓存放置优化问题的次优解,缓存放置算法的性能下限为(1-1/e)倍的最优解.在缓存放置之后考虑多点协同的缓存替换算法,最小化由于缓存替换产生的缓存损失,最后通过迭代实现缓存放置与替换的联合优化.仿真结果表明,所提联合优化算法可以提升整网缓存收益,在缓存节点负载、内容获取平均跳数和全网缓存命中率方面均优于传统方法.  相似文献   

7.
信息中心网络(ICN)的节点缓存功能有助于海量内容的高效分发,缓解链路拥塞并减少流量冗余. 传统的缓存策略不利于提高全网缓存的内容多样性和缓存节点的平均命中率,现有研究能在一定程度上解决这些问题,实现了公平的内容流复用,但没有充分考虑节点之间的协作,导致节点缓存的利用率不均. 为了解决上述问题,从当前节点缓存状态对其他节点的影响入手,提出一种基于相关性概率的ICN协作缓存策略,根据路径及相邻节点信息做出本节点的缓存判断,从而有效控制缓存冗余. 仿真结果表明,该方法可以减轻服务器负载,丰富全网内容多样性,有利于提高交错复杂网络节点的命中率和利用率,减少请求跳数.  相似文献   

8.
针对原生的iSCSI目标端控制器缺乏独立的缓存模块问题,为了进一步提高存储区域网的整体性能,在iSCSI target软件中引入了一种基于闪存的融合缓存机制FusionCache.FusionCache利用闪存和DRAM组成统一的融合缓存架构,闪存充当DRAM的扩展空间,DRAM分为缓存块元数据区和前端缓存区.元数据区基于基数树管理缓存块元数据,用于加速缓存块的查找;前端缓存区基于回归拟合统计并预测缓存块访问热度,并吸收大量写入对闪存带来的冲击,只允许热点数据进入闪存.FusionCache采用改进的LRU算法对缓存块进行替换,并且在写回过程中考虑iSCSI会话状态.实验结果表明:FusionCache能降低对后端磁盘设备的访问频率,提高I/O响应的速度和吞吐.与只采用DRAM的缓存机制以及原生iSCSI target相比,FusionCache的I/O访问延时分别降低了33%和60%,吞吐分别提高了25%和54%;相较于Facebook提出的Flashcache机制,FusionCache的吞吐性能提高了18%,延时降低了27%;FusionCache还具有良好的读缓存命中率;此外,FusionCache能够减少闪存的写入次数,提高闪存使用寿命.FusionCache提供良好的网络存储效率,并且降低了使用成本.  相似文献   

9.
基于内容轨迹的内容中心网络多径路由策略   总被引:1,自引:0,他引:1  
内容中心网络路由的研究主要关注利用转发信息库端口来获取到达服务器的最优路径,路由路径外的节点缓存中内容无法得到充分利用. 而利用多个转发信息库端口的多径路由虽可对缓存充分利用,但会带来冗余传输. 针对这些问题,提出了一种基于内容轨迹的多径路由策略,利用内容轨迹将兴趣报文引导至原有路由表路径外的缓存处,使兴趣报文在到达服务器前搜索更多缓存,增加网内缓存命中率,减小服务器负载和兴趣报文平均跳数,并将多径路由冗余控制在一定范围内. 仿真结果表明,基于内容轨迹的多径路由策略相对现有策略服务器负载降低约10%,且在服务器较远的场景下可有效降低请求平均跳数. 相对于单径路由,基于内容轨迹的多径路由策略将网内缓存命中率提升了约20%;相对于多径路由冗余降低10%以上,且具有相近的网内缓存命中率.  相似文献   

10.
为了减少片上多核处理器(Clip multi-processor,CMP)末级共享Cache中的干扰,根据应用程序的存储访问频率特性,提出了一种基于替换算法的可重用数据预测机制。当末级共享Cache的数据将被替换时,先检测此数据的历史访问信息,根据历史访问信息过滤出会被重复使用的数据,并将其保存在片上专用存储器中。仿真结果表明:本文的可重用数据预测机制将IPC(Instruction per clock)平均提高了2.9%,平均减少了应用程序中22.69%的有害替换,有效地减少了Cache抖动。  相似文献   

11.
缓存管理是影响可靠多播协议性能的重要因素.在可靠多播领域,现有大多数缓存管理机制的设计目标限于单多播组的网络环境.在缓存资源被多个多播组所共享的Internet环境中采用单组缓存管理方案无法获得预期目标.为了解决该问题,基于主动式网络中路由器能够执行预设计算并缓存数据的特点,提出并实现了一种全新的多播网络缓存管理协议(Adaptive and Active Cache Pool,简称AACP).AACP提出全局动态分配,Borrow-In和Return3种核心策略,首次提出采用全局加权移动平均计算缓存配额,并设计出分级,TTL缓存替换算法.NS2模拟实验的结果数据表明,AACP能为多播网络在恢复延迟,带宽消耗和网络吞吐等方面带来显著的性能提升.这同时也意味着AACP将为对数据完整性和实时性要求极高的多播应用,如金融电子化实时系统和电子白板等,提供高质量的基础支撑.  相似文献   

12.
为了降低整个处理器的功耗, 分析了当前多核Cache低功耗技术, 并提出一种面向多核共享Cache低功耗的重构方法.在共享Cache上进行静态重构, 分析了Cache重构的必要性, 然后在Cache访问的过程中加入重构策略.实验结果证明:在性能平均损失4%的情况下, 功耗平均降低了18%左右.  相似文献   

13.
针对组竞争仅考虑访问请求序列的替换结果而没有考虑请求的访存特征这个问题,提出了基于堆栈距离频度的复杂加权法在线识别访问模式的方法以及自适应访问模式的缓存管理替换算法,基本思想是依据在线识别的访问请求模式特征自动调整其插入策略.在Simics中,对选自SPEC CPU2000/2006的18个测试程序及组合负载的实验结果表明,该算法的缺失率相对于DIP、RRIP、TADIP和PIPP都有显著降低.  相似文献   

14.
针对边缘计算环境中单用户多任务应用,通过分析服务缓存和任务执行过程,建立任务计算卸载系统模型,确定卸载目标,并将问题细化为服务缓存和任务卸载两个子问题,其中服务缓存问题被抽象为0-1背包问题,利用化学反应优化(CRO)算法得到其最优缓存策略;任务卸载问题转化为最优化问题,设计一种改进化学反应优化(ICRO)算法来得到其近似最优卸载决策。实验结果表明:ICRO算法比CRO算法的平均优化效果增强了5.0%左右,系统时延和设备能耗分别是极端情况下的33.3%、53.8%;无论服务器缓存空间是否充足,CRO算法总是能制定出合理的缓存方案,使服务缓存比例保持在一个合理的范围之内;ICRO算法比CRO算法的优化能力更强,它不仅可以明显降低系统总成本,还具有良好的全局搜索能力和可移植性,可以满足用户多样化需求,使用户获得更好的服务体验。  相似文献   

15.
为了增强在位置服务(LBS)中对用户个人隐私的保护,提出基于本地缓存的位置感知匿名选择算法(LaSA). 利用历史轨迹信息和缓存信息,以不依赖可信第三方(TTP)服务器的方式构建匿名区域. 在连续位置服务查询中,利用马尔可夫预测模型对未来可能查询的位置进行预判. 根据预测位置、缓存贡献度和数据新鲜度构建匿名区域,以覆盖用户所查真实区域. 结果表明,与已有方案相比,所提出的LaSA隐私保护方案能提供更高的缓存命中率,减少用户服务请求次数,保证用户位置数据的安全.  相似文献   

16.
为了解决低成本和低功耗应用中的嵌入式Flash读取速度问题,提出多种基于缓存结构的嵌入式Flash读取加速技术及实现,包括低频快速访问技术、回填隐藏技术和改进型关键字优先预取策略,以及具有自适应预取功能的缓存锁定技术、预查找技术等,通过这些技术的整合应用,在提高Flash读取性能的同时,保持较低的功耗.仿真实验证明:在占用资源(缓存容量)较少,频率较低(用于部分低功耗应用)的环境下,这些技术的应用使加速控制器的加速性能与传统的2路组相联缓存相比得到了明显的提升(20%~40%),同时加速控制器中读加速单元的动态功耗与传统2路组相联缓存相比降低了40%左右.  相似文献   

17.
针对飞行仿真中大地形数据量大、细节丰富导致的渲染负载重、帧率不稳定问题,提出一种基于细分着色的地形建模方法。该方法以几何裁剪图为框架构建视点相关的多分辨率地形结构。首先,在CPU中生成若干个细分控制点并存入顶点缓存。每层几何裁剪图根据顶点缓存中的细分控制点在索引缓存中生成能够表示几何裁剪图结构框架和状态的索引点,经CPU传至GPU。其次,在GPU读取索引点后通过细分着色器生成自适应三角形面片。在渲染循环的更新阶段,仅需对几何裁剪图的变化区域进行索引点替换,可完成几何裁剪图的状态切换。最后,按照自内向外的顺序,依次对每层(最内层除外)几何裁剪图的内侧边(与下一层的共享边)进行增加细分着色控制点的操作,从而增加内侧边三角形面片,使其与内层几何裁剪图相对应,消除几何裁剪图相邻层次间因分辨率不同引起的“裂缝”现象。实验证明,该方法能充分利用显卡硬件的最新特性,在实时渲染中减少CPU向GPU传输的顶点数量,使渲染负载相对平衡,提升渲染效率和地形实时漫游的帧率稳定性,并提供一种简单有效的“裂缝”消除方法,在保证大地形细节真实程度的同时,满足飞行仿真中对大地形绘制实时性与稳定性的要求。  相似文献   

18.
针对Flink任务出现故障后因为全局卷回使流处理作业恢复效率低的问题,提出基于缓存队列的容错策略. 在作业中找出恢复时间最长的算子作为关键算子,将其处理过的数据存储到缓存队列中,并为其进行主动备份,备份算子同时接受来自上游的数据以达到在故障后作业可以瞬时恢复的效果. 为了解决主动备份带来的额外消耗,提出数据过滤算法,备份算子在每次处理数据前会到缓存组件中检索当前数据,以判断是否继续处理. 当Flink算子自身出现故障后,利用策略中的缓存队列与Flink的JobManager将故障发生时的数据信息发送给备份算子,在备份算子接收到数据后,实现即时恢复的效果. 利用4项评价指标对策略进行评估,结果表明,与Flink1.8的故障恢复模式相比,所提策略在Flink任务故障恢复速度上有显著提升,当故障次数分别为1、2、3、4时,恢复效率分别提高56.3%、51.3%、46.2%和45.8%;而在处理时延、CPU利用率以及内存使用率方面仅产生极小的代价.  相似文献   

19.
信息中心网络缓存技术研究综述   总被引:1,自引:0,他引:1  
针对以内容中心网络(CCN)为代表的信息中心网络(ICN)缓存技术研究展开综述与展望,理清了相关研究思路与主要方法.首先概述了ICN缓存工作原理以及关键研究内容;然后分析了ICN体系架构引入无线网络中的技术优势;着重总结了以CCN为代表的ICN缓存放置策略研究现状、缓存网络理论建模分析研究现状;最后对ICN缓存技术发展与挑战进行了分析与讨论.通过对已有研究工作进行总结与分析,指出了潜在研究方向与关键问题,为ICN缓存后续研究提供有益参考.  相似文献   

20.
为解决当前原型学习算法在大规模、大类别机器学习和模式识别领域的计算密集瓶颈问题,提出一种采用GPU和CPU异构并行计算架构的可扩展原型学习算法框架.一是通过分解和重组算法的计算任务,将密集的计算负载转移到GPU上,而CPU只需进行少量的流程控制.二是根据任务类型自适应地决定是采用分块策略还是并行归约策略来实现.采用大规模手写汉字样本库验证本框架,在消费级显卡GTX680上使用小批量处理模式进行模型学习时,最高可得到194倍的加速比,升级到GTX980显卡,加速比可提升到638倍;算法甚至在更难以加速的随机梯度下降模式下,也至少能获得30倍的加速比.该算法框架在保证识别精度的前提下具有很高的可扩展性,能够有效解决原有原型学习的计算瓶颈问题.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号