首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
基于因特网的以UDP为传输协议的实时多媒体数据传输需要在保证实时性和可靠性的基础上,能够与因特网其他服务所使用的TCP协议公平共享有限的带宽。本文采用基于实时传输协议(RTP)和实时传输控制协议(RTCP)的反馈拥塞控制算法,提出一种简单的拥塞控制机制,使UDP数据流能与TCP数据流和平共处;研究了基于速率控制的TCP友好拥塞控制策略-TFRC,分析了其基本机制和关键问题;提出利用延迟抖动作为潜在拥塞信号来改进TFRC的速率控制机制,以适应实时业务低抖动的要求,并通过NS仿真验证了改进的TFRC算法对实时业务的良好性能。  相似文献   

2.
针对现有传统拥塞控制算法难以适应高度动态变化的无线自组网链路环境的问题,提出了一种基于深度强化学习的拥塞控制性能提升方法Enhanced-CC(Enhanced Congestion Control)。通过利用传统拥塞控制算法对拥塞窗口进行初步探测,在此基础上,利用深度强化技术学习链路实时最佳拥塞窗口区间,在传统拥塞控制算法计算的拥塞窗口过大或过小时,对拥塞窗口进行调整,从而使发送速率能够与高度动态变化的链路带宽相匹配,提升传统拥塞控制算法的传输性能。实验结果表明Enhanced-CC能够大幅度提升BBR、CUBIC、Westwood、Reno等传统拥塞控制算法的性能,同时也优于PCC、PCC Vivace等完全基于学习的拥塞控制算法以及Orca、DeepCC等结合深度强化学习与传统拥塞控制算法方案的性能。  相似文献   

3.
通过分析TCP拥塞控制机制和已有的实时流拥塞控制算法,提出了一种利用RTP/RTCP协议收集QoS信息的基于模型的单播拥塞控制算法——基于拥塞率反传的拥塞控制算法。实验证明,该算法不但具有TCP友好性,而且能在速率恢复阶段减少拥塞再次出现的概率,使实时流速率变化平稳,并且丢包率比参考协议TFRC减小了2/3。  相似文献   

4.
基于TCP友好的无线网络拥塞控制机制研究   总被引:2,自引:0,他引:2  
网络实时多媒体业务的广泛应用对传统传输层协议提出了新的挑战:拥塞控制机制的缺乏使得UDP严重抢占TCP应用的共享带宽,从而降低网络的公平性,甚至导致网络拥塞.针对无线网络的高误码特性,将传输延时抖动引入到TFRC控制机制中,提出了一种基于速率控制的TCP友好拥塞控制算法TFRC-JI.该算法基于传输延时抖动有效区分无线链路的拥塞和误码,并以此反馈至发送端,实现不同的速率控制机制.实验结果表明,与传统的TFRC相比,改进的TFRC-JI在保持对TCP业务友好性的同时实现了链路的高效使用,并降低了传输时延抖动,从而较好地适应多协议共存的无线网络实时业务传输.  相似文献   

5.
随着互联网业务量的迅猛增长以及新业务的不断涌现,网络拥塞控制问题已成为研究热点。本文在针对拥塞控制问题做了大量研究工作的基础上,讨论了拥塞和拥塞控制算法的概念和技术,重点分析与研究了理想拥塞控制协议及其评价指标。  相似文献   

6.
电力通信网现场运维对于电力通信网以及智能电网的稳定和有效运营至关重要,为了保证电力通信网现场运维作业质量和提高运维作业效率,提出了一种多点远程协同视频通信架构,基于Openfire和WebRTC搭建了即时通信系统,促进运维作业消息的流通,提高运维作业效率。针对目前WebRTC的拥塞控制算法不能根据网络情况实时、准确自适应视频流数据发送速率,在基于时延的拥塞控制算法和基于丢包的拥塞控制算法的基础上,提出了一种基于网络质量感知的视频速率优化方法,该算法能够有效感知网络质量并优化视频发送速率。提供了对提出算法的实验评估,并通过模拟结果提供了与WebRTC适配的拥塞控制算法的对比分析。  相似文献   

7.
赖涵光  李清  江勇 《计算机应用》2022,42(4):1225-1234
针对轻量级基于学习的拥塞控制算法在某些场景下性能表现会出现断崖式下滑的问题,提出了一种基于场景变化的传输控制协议拥塞控制切换方案。首先,该方案模拟实时的网络环境;然后,根据实时的环境参数来识别场景;最后,将当前的拥塞控制算法切换至该场景下相对最优的轻量级基于学习的拥塞控制算法。实验结果表明,所提方案相较于原来使用单个拥塞控制算法的方案,例如测量瓶颈链路带宽和时延的拥塞控制(BBR)方案、面向性能的拥塞控制(PCC)方案等,可以使不同场景下的网络性能得到显著提升,总吞吐量增幅达到5%以上,总时延降幅达到10%以上。  相似文献   

8.
几种网络拥塞控制算法比较分析   总被引:3,自引:0,他引:3  
拥塞控制已成为当前网络研究的重点。为了适应实时数据流在网络中的高效传输,研究者提出了多种拥塞控制和队列管理算法,并不断改进,以期能更有效地降低丢包率、提高链路利用率、防止拥塞崩溃。通过比较TailDrop、RED、BLUE、SFB等几种算法的优缺点来说明拥塞控制算法的发展与改进,以便于应用人员在不同的网络环境中运用更合理的拥塞控制算法来优化网络传输性能。  相似文献   

9.
基于网络优化原理,建立了一个在网络的源节点和连接节点都是动态变化的Internet拥塞控制算法.通过讨论具有通信时延的动态Internet拥塞控制算法的频率曲线,得到’了时滞函数的许多频域特性;应用多变量频域控制理论,分析了时廷不同的动态Internet拥塞控制算法在平衡点的渐近稳定性.最后,通过仿真验证了结论的有效性.  相似文献   

10.
讨论了在ATM网络中ABR业务拥塞控制机制及其改进方法,即在增强比例速率控制算法(EPRCA)中通过检测缓存队列长度来控制网络拥塞,大大降低了拥塞产生的可能性,防止了网络拥塞的崩溃,并提高了缓存的利用率.  相似文献   

11.
基于单向时延的自适应拥塞控制的研究   总被引:1,自引:0,他引:1       下载免费PDF全文
李力  黎敏  肖庆  江民斌 《计算机工程》2007,33(11):110-112,131
对两种基于UDP实时流媒体拥塞控制机制--探讨基于丢包率的控制和基于往返时延 (Round-trip Time, RTT)的控制,提出一种在接收端通过单向延时预测拥塞的算法.与前两种拥塞驱动机制相比,单向时延自适应拥塞控制算法(AOWDCC)最大限度地缩短了拥塞反馈时间间隔,拥塞判断的实时性大大增强.采用NS模拟器,对基于丢包率的拥塞控制、基于RTT的拥塞控制和AOWDCC算法的性能进行仿真,验证了AOWDCC的优越性.  相似文献   

12.
Christos N.  George A.   《Automatica》2008,44(5):1402-1410
A novel neuro-adaptive congestion controller is presented, capable of regulating the per packet round trip time (RTT) around a piecewise constant desired RTT, thus achieving almost piecewise constant delay. The controller is implemented at the source and is proven robust against modeling imperfections, exogenous disturbances (UDP traffic) and delays (propagation, queueing). The notion of communication channels is introduced for throughput improvement. The analysis is nonlinear and the tools used are approximation-based control and linear-in-the-weights neural networks. The proposed controller is guaranteed to be saturated. Moreover, modifications are also provided to achieve rate reduction whenever congestion is detected. Simulation studies illustrate the performance of the proposed control scheme and compare it with other well-established congestion control mechanisms.  相似文献   

13.
张天伍  刘新建 《计算机仿真》2012,(4):371-374,386
研究交通通信网络,提高网络的吞吐量和数据传输效率。针对传统的单播组网中通信发送者需要多次复制相同的数据包以满足多个接受者同时提出的数据请求,随着数据请求的增多使得发送者的通信负担加重,造成网络拥塞、吞吐量不高的问题。为了解决上述难题,提出基于组播通信的交通通信网络的组网方法。采用Mesh结构构建交通通信网络的组播模型,使得网络节点之间建立有线或无线的连接,然后利用网络编码算法实现网络间的通信,使得源点只需发送一次就可向多个终点成功传输相同的数据。实验表明,组网方法能够有效解决数据请求过多时网络吞吐量不高的问题,同时提高了数据传输的效率,取得了满意的结果。  相似文献   

14.
传统TCP协议在现代高速网络中的数据传输变的低效,具有不同往返时延的TCP数据流在竞争瓶颈带宽时将引发带宽不公平分配问题。基于UDP的可靠数据传输协议(UDP-based Data Transfer Protocol,UDT)是在UDP之上增加了可靠性和拥塞控制机制,适合于高速网络下的大量数据传输,具有很高的公平性。通过NS2仿真平台,改变瓶颈带宽、时延等形成不同的网络环境,在效率、公平、稳定等UDT目标性能上同传统TCP进行比较研究,结果显示UDT在高速网络环境下具有比传统TCP更优的传输性能。  相似文献   

15.
无线网络中数据传输的往返时间RTT(roundtrip time)比有线网络中的RTT大,这使得针对有线网络设计的以时延作为拥塞信号的拥塞控制对偶算法应用到无线网络中时,其稳态性能下降,无线网络的带宽不能得到充分利用.针对对偶算法进行了改进,以保证该算法在无线网络中的稳态性能不会降低;同时,就改进算法的稳定性进行了理论分析和仿真,给出了判断该分布式算法稳定的定理和参数的选择范围.  相似文献   

16.
在无线传感器网络中,由于各节点的通信能力、计算能力、存储能力等都比较有限,使其需采取有别于传统网络的拥塞控制策略.本文针对传感网络特有的多对一、多跳通信方式经常导致网络拥塞的缺陷,提出一种基于流量预测的拥塞避免算法(SCATP).该算法通过ARMA模型分析流经各节点的当前流量,预测网络下一时刻的拥塞状况,并据此进行流量分配,从而实现拥塞控制的同时保证数据的可靠传输.仿真实验表明,SCATP算法在延迟、抖动率、吞吐量和能量有效性等方面能有效改善网络的服务质量.  相似文献   

17.
徐骞  朱明 《计算机仿真》2006,23(4):106-109
该文针对网络流量的自相似特性提出了一种基于双时间尺度QoS分层的拥塞控制算法,该算法以丢包率作为标准对网络服务质量(Qos)进行分层,质量越高的层次对应越低的丢包率,在小时间尺度上,根据网络传输时延及丢包率等信息,由接收端完成速率的计算工作,并反馈给发送端,发送端根据此速率选择一定层次质量的数据发送;在大时间尺度上,通过预测未来流量水平的变化趋势,控制相邻服务质量层次之间变换的难易程度,以减少发送速率在相邻质量层次间来回振荡。实验表明,与TFRC算法相比,该算法能够有效降低业务流的丢失率,为系统提供更好且更稳定的服务质量。  相似文献   

18.
引用了一种应用于宽带网络环境的被动式环回时间(RTT)测量算法,用于对传输控制协议(TCP)的报文环回时间进行估计。该算法通过估计同一轮次报文的发送间隔来挑选相邻2个发送轮次之间的间隙,进而估算出TCP的报文环回时间,该方法的测量对象和测量结果更加具有网络管理意义,能够在不同的TCP行为模式中获得更多的测量采样并显著提高测量成功率。文中通过设计实验,设计程序分析所得的测量值与实际所得的RTT比较,验证该算法的有效性。  相似文献   

19.
《Computer Networks》2008,52(1):275-291
Resource allocation represents an important issue for the next generation TCP/IP Quality of Service-based satellite networks. Many schemes, proposed in the recent literature, consider Internet traffic as the superposition of traffic sources without distinguishing between User Datagram Protocol (UDP) and Transmission Control Protocol (TCP) flows, even if UDP and TCP imply very different traffic characteristics. The basic idea of this work is that a resource allocation algorithm which is conscious of the difference may be more efficient because it can make use of the different behaviour of TCP and UDP in the presence of network congestion. Actually TCP reduces the source flow rate and, as a consequence, also the bandwidth occupancy when there is network congestion. The use of this feature within the bandwidth allocation scheme allows reducing the bandwidth waste due to over provisioning and using the residual bandwidth for other sources. The advantage is particularly clear over satellite channels where fading often affects the communication: having some residual bandwidth available for stations which have experienced fading can improve the satellite network performance.This paper presents a detailed performance evaluation of a bandwidth allocation scheme, called E-CAP-ABASC and studied for the satellite environment. The bandwidth is assigned to the earth stations that compose the network by a master station on the basis of a cost function whose main part is represented by a closed-form of the packet loss probabilities for the TCP and UDP traffic. The use of two different packet loss probability models for TCP and UDP allows exploiting the different features of the two traffic types, so improving the overall performance either in terms of packet loss or, on the other hand, in terms of the traffic admitted.The performance evaluation is carried out by varying the link degradation due to fading, the traffic load, and the flow balance between UDP and TCP. The results show a good performance of E-CAP-ABASC, compared with two other schemes. Advantages and drawbacks are discussed.  相似文献   

20.
Generally, real-time applications based on the User Datagram Protocol (UDP) generate large volumes of data and are not sensitive to network congestion. In contrast, Transmission Control Protocol (TCP) traffic is considered "well-behaved" because it prevents the network becoming congested by means of closed-loop control of packet-loss and round-trip-time. The integration of both sorts of traffic is a complex problem, and depends on solutions such as admission control that have not yet been deployed on the Internet. Moreover, the problem of quality-of-service (QoS) and resource allocation is extremely relevant from the point of view of convergence of streaming media and data transmission on the Internet. In this paper an adaptive real-time protocol based on the least mean square (LMS) algorithm is proposed to estimate the application UDP bandwidth in order to reduce the quadratic error between the packet loss and a target. Moreover, the LMS algorithm is also applied to make sure that the reduction in the average bandwidth allocated to each TCP process will not be higher than a given percentage of the average bandwidth allocated before the beginning of the UDP application.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号