首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 312 毫秒
1.
李耀升  孙昕 《计算机应用》2022,(S1):236-241
针对公网数字集群系统高并发时吞吐量低、响应时间长、失败率高等问题,提出一种公网数字集群系统的动态并发请求调度处理队列(DCRSPQ)算法。首先建立请求失败率和平均响应时间的优化目标,利用请求的各类优先级系数得到每个请求的加权平均优先级;然后,采用K-means聚类算法,根据每个请求的加权平均优先级确定所属的优先级队列,将请求分类到不同优先级的队列中;最后,利用自适应资源反馈调整机制,将系统资源动态分配给各优先级队列处理器,同时动态改变各优先级队列的长度,实现各类请求的高效快速处理。仿真结果表明,与分层级赤字加权轮询队列调度(HDWRR)和基于队列长度的动态加权公平队列调度(DQLWFQ)等算法相比,DCRSPQ算法的平均响应时间能缩短23.8%以上,吞吐量可提高3.5%以上,请求成功率可提升0.4个百分点。DCRSPQ算法具有更低的平均响应时间、更高的吞吐量以及更好的请求成功率,在公网数字集群系统并发情形下能有效提升系统的处理效率。  相似文献   

2.
针对异构云环境中运算节点性能各异、密码服务处理命令和密码算法组合多样且随机高并发的问题,综合考虑用户请求任务与云中运算节点的多项属性,从任务和节点角度优化整体调度系统的服务质量及任务调度成功率,设计一种同时支持多种密码处理命令和算法的二级调度策略。通过任务与运算节点之间功能属性的映射,保障密码服务请求功能的正确实现。在此基础上,利用节点优先级算法提高任务处理实时性和随机高并发密码服务系统的任务调度成功率。仿真结果表明,该策略能够在保证任务调度成功率的基础上,有效提高任务执行效率和负载均衡性能,其任务执行时间较优先级动态分派策略和遗传算法分别减少约4%和17%。  相似文献   

3.
针对云平台的任务逐渐增加,任务调度之间的关联性逐渐被海量的任务量打破,导致任务调度的优先级也存在较强的非线性,当前的云平台任务调度模型,已经无法运用准确的约束关系确定先后顺序,造成任务请求缺失率高、资源空闲时间高和资源利用率低等弊端,提出一种模糊云平台的任务合理化调度模型,对模糊云平台任务调度问题进行了描述,分析了平台调度任务量与平均响应时间之间匹配关系,对任务优先级进行计算,得到优先级后,将其插入对应的任务队列中进行处理。分析云平台分配任务过程中平均响应时间等动态模糊特征,引入时间点概念,完成对所有时间点的处理,优先调度优先级等级高的云平台分配任务。利用任务分配优先级最大化云平台的执行任务量,最小化云平台的平均响应时间。仿真结果表明,所提模型降低了云平台平均响应时间,提高了资源的利用率。  相似文献   

4.
现有P2P流媒体系统的调度策略大多在请求端进行数据调度,在响应端则采用简单的先来先服务或最小时限优先响应的响应策略,其缺点是优先级较高的请求在响应时未必被优先响应。为此,综合考虑数据块的紧迫性、稀缺性以及请求节点的带宽,提出一种基于请求响应控制机制的数据调度策略(DSBRC)。与现有的数据调度策略相比,DSBRC提高系统上行带宽利用率,同时缩短节点启动时延和提高节点播放质量。  相似文献   

5.
Modbus/TCP工业以太网标准本身不保证实时性。设计一种带优先级的令牌环调度算法,实现了对高优先级Modbus/TCP消息的实时响应,并在该算法基础上扩展出加权令牌环调度算法和变权令牌环调度算法,能满足可定制、可更改的响应延时需求。最后,在基于μC/OS II+ARM7的平台上测试响应延时为1.15±0.15ms,优于目前大多数对Modbus/TCP的实时性改造成果,甚至达到了开放模式下Powerlink的实时水准。  相似文献   

6.
一种面向Web服务的分级服务模型*   总被引:1,自引:1,他引:0  
以服务响应时间为QoS参数,提出了一种面向Web服务的分级QoS方法,该方法从预测请求响应时间入手,通过区分操作类型并采用优先级队列调度策略,进而保证请求响应时间.在ONCE平台内置SOAP引擎SOAPExpress的基础上进行了原型实现.实验表明,该方法能有效地保证不同级别用户的请求响应时间,实现服务分级.  相似文献   

7.
王芳  汪伟 《计算机与现代化》2013,(5):108-111,116
随着流媒体应用的指数级增长,提高流媒体服务器的性能越发重要。本文提出一种流媒体集群服务器的负载调度策略。综合运用多级模糊系统和人工神经网络技术,对用户请求响应延时进行模糊预测,并考虑节点服务器的流媒体节目前缀缓存和补丁预取技术,提出基于响应延时阈值和请求流媒体节目在节点服务器的缓存情况的负载调度算法,并对该算法进行仿真验证。  相似文献   

8.
针对Hadoop平台下默认调度算法FIFO、计算能力调度算法以及公平调度算法在调度过程中遵守严格的队列顺序,导致一些任务被调度到不满足数据本地性节点上的问题,提出一个基于本地性的调度算法——延时调度。该算法在维护公平性原则的同时,当一个被调度的作业无法启动一个本地的任务时,让这个任务等待一小段时间,调度其他作业先执行。实验结果表明,此调度算法缩短了作业平均响应时间,有效增加了集群系统的吞吐量,提高了集群资源利用率。  相似文献   

9.
针对云计算环境下存在密码服务请求算法种类多、资源需求差异化和节点性能异构等问题。为了提高系统的可靠性,保证服务质量,综合考虑用户请求任务和处理节点等多种因素,在作业包截止时间的基础上,通过任务映射策略完成密码服务的一级调度。设计一个基于用户优先级和任务等待时间的任务优先级调度算法实现二级调度,从而构造一种同时支持多种密码服务请求和任务动态可调整的调度系统框架,以保证云环境下任务的时效性。仿真结果表明,该系统有较好的执行效率和负载分布效果,达到设计目标。与随机法和遗传算法相比,其执行效率分别提高了17%和11%左右。  相似文献   

10.
数据驱动型覆盖网络中的数据调度算法是影响P2P流媒体系统性能的重要因素,为了解决当前算法未能有效利用数据块和节点的特性导致流媒体服务质量差的问题,提出了一种基于数据块优先级和节点能力度的数据调度算法。该算法能够根据数据块的稀缺性、紧迫性得到块的优先级大小,根据节点的上行带宽、在线时间、相对距离得到节点能力度的大小,使优先级高的数据块和能力度大的节点优先被请求,减少了数据块的播放等待时间。在OPNET网络仿真实验表明该算法能够有效降低流媒体播放系统的启动延时和服务器的负载。  相似文献   

11.
云计算中统计复用是其显著特点,通过使用虚拟化技术可以提高物理资源利用率。针对云虚拟机集群需要考虑资源利用的负载均衡问题,面向OpenStack云平台,提出基于软件定义网络(SDN)的反饱和分组负载均衡(ASGS)方法。云主机按权值分配到不同的分组,SDN控制器利用探针根据不同分组周期性获取云主机负载。当请求到来时,均衡器以每组云主机平均权值为概率,随机选择一组,并在组内通过轮询选择一台合适的后端。为避免某台后端出现突发请求利用资源过多造成的云主机宕机现象,对较高权值的云主机预先加上一个参数,增高权值,使其处于高负载状态,让其接收更少的请求。实验结果表明,所提算法使各云主机不管请求量如何变化,随着时间的变化集群中云主机的资源利用率的标准方差比随机和轮询波动更小,更趋近于0,使得云主机集群的负载更均衡。  相似文献   

12.
宋煜  张帅  严永辉  钱柱中 《计算机工程》2021,47(3):209-217,226
在增强现实应用中,距离较近的多个用户请求很可能是相似或者相同的,从而导致同样的计算任务被重复执行。针对该问题,设计基于冗余任务消减的计算任务缓存系统。通过在边缘节点设计任务缓存,使边缘服务器以自组织方式维护全局缓存。对客户端请求时延、用户轨迹、节点部署和总时延进行建模,基于此研究基站上边缘服务器的计算资源部署问题,在给定总的部署代价下优化平均请求时延,并将该问题转化为整数非线性规划问题,设计针对中小规模场景的IDM算法和针对大规模场景的LDM算法。实验结果表明:IDM算法的平均时延与参考最优解仅相差5.85%,对最优解具有较好的逼近效果;LDM算法在牺牲9.20%平均时延的情况下,相比于IDM算法运行时间缩短98.15%,大幅减少了运行开销。  相似文献   

13.
提出一种基于分段的线程池尺寸自适应调整算法。该算法将用户请求量分为上升段、平衡段和下降段3段,根据当前用户请求数、线程数自适应调整线程池尺寸,从而满足用户需求。实验结果表明,相比基于平均数的调整算法,该算法能更好地处理并发的用户请求,响应时间更短。  相似文献   

14.
杨宏宇  宁宇光 《计算机应用》2018,38(6):1614-1619
针对云平台风险访问控制模型中风险评估指标权重主观设定且固定的问题,提出自适应风险评估指标权重分配方法。首先,通过带约束的多元线性回归设计自适应风险评估指标权重分配模型;然后,提出并优化配方回归算法求解相应权重;最后,构建带有自适应权重分配的风险值量化公式,动态计算访问请求的风险值。实验结果表明,该方法与动态风险访问控制(DRAC)模型、基于系统安全风险的访问控制模型相比,在训练集数量级相同的条件下,其风险值的准确率和灵敏度平均提升了2.8%和18.5%、1.7%和18.7%。该方法与DRAC模型、基于动态属性的风险感知访问控制(DA-RAAC)模型以及基于系统安全风险的访问控制模型相比,在访问请求数量相同的条件下,响应时间平均缩短了9.2%、34.6%和96.6%。所提方法在大并发用户数情况下所得风险值有较高的准确率和灵敏度,且响应时间更短,更适用于云环境。  相似文献   

15.
针对目前硬件正则表达式匹配算法在存储空间以及吞吐量等方面面临的挑战,结合扩展有限自动机(XFA)正则表达式匹配算法,提出了一种预定义类的压缩自动机匹配算法(Pre-Class CFA)。通过预定义类,算法既可以实现正则表达式中类字符匹配,又能够通过优先级的设定匹配特殊字符集,并在XFA消除确定性有限状态机(DFA)状态爆炸问题的基础上进一步压缩了迁移边数目;同时算法根据现场可编程门阵列(FPGA)和迁移边的特征,设计了一种基于并联只读存储器(ROM)结构的迁移边存取方法,可以实现同一状态多条迁移边的并行读取和匹配。在中低性能FPGA平台ALTERA DE2-70上对算法进行测试,实验中系统吞吐量为1.3 Gb/s,可实现千兆网络下的入侵检测和垃圾过滤。  相似文献   

16.
Cloud-orchestrated Internet of Things (IoT) facilitates proper utilization of network resources and placating user demands in smart communications. Multiple concurrent access (MCA) techniques designed for cloud-assisted communication helps to achieve better resource sharing features with fault tolerance ability. A multi-objective resource allocation and sharing (RAS) for balancing MCA in cloud-orchestrated IoT is presented in this article. The RAS constraints are modeled through linear programming (LP) as an optimization approach. The constraints are resolved using genetic representations (GR) for reducing the unserviced requests and failed resource allocations. Conventional genetic stages are inherited by the LP model to solve resource allocation and access issues reducing latency. The combined LP and GR jointly resolve resource allocation and MCA stagnation in cloud network. A fair outcome of LP-GR is estimation using the metrics response latency, resource utilization, request handled, and average latency.  相似文献   

17.
为解决现有的虚拟网络映射算法忽略网络本身属性,仅按照请求到达的顺序分配资源而导致物理资源利用率低的问题,利用时间窗模型,提出了基于两次优先级排序的虚拟网络映射算法。在第一次排序中,粗化虚拟网络请求的同时根据业务类型、属性参数计算请求优先级,初步确定窗口中虚拟网络映射顺序;在第二次排序中,综合考虑链路带宽资源需求和节点途径跳数,通过链路权重来确定优先级,计算最佳映射路径。仿真结果表明,该算法降低了虚拟网络请求的平均等待时间,提高了请求接受率及收益开销比。  相似文献   

18.
分布式同步系统Zookeeper的优化   总被引:1,自引:0,他引:1  
针对分布式同步系统Zookeeper在大规模计算机集群上运行效率低下的问题,在研究手动设定响应节点方法的基础上,提出一种基于成员节点选举的自动设定响应节点算法。在一个大规模Zookeeper系统中,采用选举因子可配置的选举算法(包括计算能力、磁盘读写速度、请求率、失效率和网络延迟的测试),挑选出适合完成Zookeeper响应工作的一个或数个节点,进行数据更新请求的应答,降低系统的响应时间,提高系统的性能。实验结果证明,与目前手动设定响应节点相比,自动选举算法能够选举出最合适的节点,并且效率高,性能稳定。在对系统访问延迟的测试中,自动选举算法比手动设定响应节点的平均值减少了11%,且比手动设定响应节点的最大值减少了17%。  相似文献   

19.
云计算环境下基于蜜蜂觅食行为的任务负载均衡算法   总被引:1,自引:0,他引:1  
针对云计算环境下的任务调度程序通常需要较多响应时间和通信成本的问题,提出了一种基于蜜蜂行为的负载均衡(HBB-LB)算法。首先,利用虚拟机(VM)进行负载平衡来最大化吞吐量;然后,对机器上任务的优先级进行平衡;最后,将平衡重点放在减少VM等待序列中任务的等待时间上,从而提高处理过程的整体吞吐量和优先级。利用CloudSim工具模拟云计算环境进行仿真实验,结果表明,相比粒子群优化(PSO)、蚁群算法(ACO)、动态负载均衡(DLB)、先入先出(FIFO)和加权轮询(WRR)算法, HBB-LB算法的平均响应时间分别节省了5%、13%、17%、67%、37%,最大完成时间分别节省了20%、23%、18%、55%、46%,可以更好地平衡非抢占式独立任务,适用于异构云计算系统。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号