宽带无源光网络的动态带宽分配和业务划分
背景技术
本发明涉及无源光网络上动态带宽分配的问题。其对多个光网络单元(ONU)的上行信道带宽进行仲裁。另外,本发明涉及无源光网络(PON)上业务划分的问题。其结合排队、调度和基于分类的带宽分配来服务不同的终端用户。更具体地说,基本的带有流量预测的限制共享(LSTP)方案被扩展来服务于宽带PON(EPON,BPON,GPON)上的分类的网络业务流。
无源光网络(PON)致力于业务提供商中心局与客户端之间的第一英里的通信基础设施,也被称为“接入网”。随着在互联网上提供的业务的扩展,通过使用波分复用(WDM)有助于显著增加骨干网的带宽,提供每波长每秒数十吉比特的带宽。同时,局域网(LAN)已经从10Mbps增加到100Mbps,并正在被升级为吉比特以太网。骨干网的容量与终端用户的需求之间的如此增长的差距导致了[3]中所述的严重的接入网瓶颈。希望具有能够提供低成本且有效的设备以便于多业务接入到终端用户的接入网技术。PON被认为是一种有吸引力且有前途的宽带用户接入网解决方案。作为一种便宜、简单且可升级的技术,以及具有传送综合业务的能力,PON在IEEE802.3ah第一英里以太网(EFM)任务组织[1]和ITU-T研究组15[2]的标准化处理中被探讨过了,其旨在显著提高宽带业务性能,同时最小化设备、操作和维护成本。
作为一种低成本、高速度的技术,以及随着近来对PON标准IEEE802.3ah、ITU-T G.983x和ITU-T G.984x的通过,PON成为一种有吸引力且有前途的宽带用户接入网解决方案。如图1所示,PON由位于提供商中心局的光线路终端(OLT)和与之相关联的、将宽带业务传送给终端用户的一组光网络单元(ONU)组成。单根光纤从OLT延伸到1:N无源光分路器,无源光分路器扇出多个单根光纤使之连接到不同的ONU。在PON中去除了传统接入网中的诸如再生器和放大器之类的有源电子部件,取而代之的是不太昂贵的、更简单且更容易维护的无源光分路器。PON的主要特征是多个ONU使用共享的上行信道,因此,带宽管理成为提高PON效率的关键问题。现有的带宽分配方案具有某些严重的局限性。一个主要问题是:在等待时间到达的上行数据不能在下一时隙中被传送,这样就导致了附加的数据延迟、严重的数据丢失以及较长的队列尺寸。还存在实现宽带接入网的高带宽效率的障碍。因此,已知可用的带宽分配方案在这些网络中效率很低。
由于接入网需要容纳不同种类的业务流,因此业务划分就成为希望PON提供的突出特点。由于订户的服务等级协议(SLA)的差异,不同的终端用户可能具有不同的带宽需求。一种实用的方法是通过提供不同长度的时隙来服务于不同的业务流,使用基于时隙的带宽分配。现有的业务划分方案具有某些严重的局限性。主要问题包括:如何对本地业务流进行排队及如何对其进行调度,以及如何为不同队列分配上行带宽。可用的业务划分方案仅解决了部分问题,并且这些业务划分方案对于在PON上传送不同的业务流的效率较低。
利用下行信道的全部带宽,数据从OLT被下行广播给ONU。ONU通过所携带的目的地址来选择性地接收指定给它们的数据。
通过PON将数据上行传送到OLT的过程不同于将数据下行传送到本地用户的过程。在上行方向,针对上行业务流使用不同的信道波长,多个ONU共享该公用的上行信道。因此,在一个时隙中只有单个ONU可以进行传送,以避免数据碰撞。来自本地用户的数据首先被缓存在ONU中,直到专门分配的时隙到来。在该时隙中,被缓存的数据将以全信道速率被“突发式”地输出给OLT。
为了提供不同的服务质量(QoS),上行信道的带宽管理对于成功地实现PON来说是关键性问题。不同的PON技术具有其自己的MAC控制消息,以便于进行上行带宽分配。例如,EPON采用由IEEE 802.3ah EFM任务组织提出的多点控制协议(MPCP)[1]。ONU使用REPORT消息来向OLT报告带宽需求,而OLT使用GATE消息来为特定的ONU分配时隙。文献中已经有许多用于解决上行带宽分配的建议。
限制带宽分配(LBA)[3]方案授权ONU所请求的时隙长度,但不超过上限。保证带宽的轮询(BGP)方案[4]根据ONU的服务等级协议(SLA)来为ONU分配时隙。Choi和Huh[5]提出了针对多媒体业务的分类的带宽分配。但是,BGP方案与PON标准不兼容,且不会被标准化。LBA方案以及Choi和Huh的方案没有考虑在ONU等待时间进入的数据,该等待时间的范围为从发送队列长度报告到发送缓存数据的时间,这样,在ONU等待时间进入的数据不得不被推迟到下一时隙,产生了附加延迟和丢失。
Assi等人[6]通过把进入的高优先级业务流数据简单地替换成在上一等待时间期间进入的数据的实际量来以粗略的方式预测这种进入的数据。其缺点是:ONU的服务顺序剧烈地改变,重负载的ONU总是在轻负载的ONU之后受到服务,因此,对进入的高优先级业务流的预测被严重地削弱了,这是因为每个ONU的等待时间可能变化得很剧烈。
发明内容
本发明的方法提供了一种时间和空间复杂性非常低的、有效且动态地为多个ONU进行上行信道带宽分配的技术。该方法还提供了通过结合排队、调度以及基于分类的带宽分配来将业务划分成不同网络业务流的技术。
公开了一种动态的上行带宽分配方案,即,带有流量预测的限制共享(LSTP)方案,来提高PON的上行传输的带宽效率。LSTP采用标准的MAC控制消息,根据在线业务流负载动态地分配带宽。ONU的报告包括已被缓存的数据和对即将进入的数据的预测,使得减小数据延迟并减少数据丢失。在LSTP中,OLT以固定的顺序为ONU服务,以便于流量预测。
为了提高PON的带宽效率,根据在线的网络业务流负载来对上行带宽进行动态分配。在每个时隙的末端,ONU报告其本地队列状态,包括已被缓存的数据和对在等待时间要到达的数据的预测。预测过程基于网络业务流的突发特性,且具有非常低的计算复杂性,这使得所公开的方案对于任何规模的PON都是可升级的。流量预测有助于减小数据延迟以及数据丢失。
关于业务划分,每个光网络单元(ONU)将其本地业务流分为优先级递减的三类:加速转发(EF)、保证转发(AF)和尽力而为(BE)。当缓存器满时,较高优先级数据取代较低优先级数据。为了减轻低优先级数据的不可控的延迟和对其不公平的丢弃,使用基于优先级的调度方法,在特定传输时隙传送被缓存的数据。带宽分配结合了服务等级协议(SLA)以及在线业务流动态特性。基本的带有流量预测的限制共享(LSTP)方案被扩展以服务于分类的网络业务流。
附图说明
根据以下对本发明的目前为优选的、尽管如此也是例证性的实施例的详细描述,结合附图,将对上述简短说明以及进一步的目标特征和优点更加彻底地理解,其中:
图1是无源光网络(PON)的功能框图;
图2根据本发明的优选实施例所使用的REPORT消息和GATE消息的表示;
图3是用于解释EPON情况操作的时序图;
图4是用于解释结合了用于在EPON上进行动态带宽分配的带有流量预测的限制共享(LSTP)的EPON操作的时序图;
图5是针对图4表示的系统类型的、随网络业务流负载变化的平均帧延迟的曲线图;
图6是针对图4表示的系统类型的、随网络业务流负载变化的帧丢失率的曲线图。
具体实施方式
PON的主要挑战包括MAC协议设计和多业务提供。由于无源光分路器的方向特性,ONU很难通过常规的、为以太网设计的CSMA/CDMAC协议来检测数据碰撞。因此,有效的MAC协议对于保证高的带宽利用率是至关重要的。由于PON不直接支持QoS(服务质量),而接入网需要容纳各种业务流,因此,多业务接入是期望PON提供的显著特征。由于订户的服务等级协议的差异,不同的ONU可能具有不同的带宽需求。一种实用的方法是通过提供不同长度的时隙给不同的ONU来采用基于时隙的带宽分配。
固定带宽分配(FBA)在每个服务周期授权给每个ONU固定的时隙长度。服务周期被定义为每个ONU将其数据传送给OLT一次的时间。FBA正像以时分多址(TDMA)的方式来工作,其中,每个ONU的时隙被预先确定,且与实际业务流到达率不相关。由于没有队列状态报告和传输授权的开销,FBA易于实现。另一方面,即使没有数据要传送,ONU在其分得的时隙中也将占据上行信道,这样引起了缓存在其它ONU中的所有数据的延迟增加。在上行信道负载轻或甚至信道空闲时,大量数据可能被积压在缓存器中,这就导致了上行信道的不充分利用。
限制带宽分配(LBA)通过使用MAC控制消息来报告本地队列尺寸和通知带宽仲裁决定(例如,EPON中的REPORT/GATE机制),以便监控进入的业务。ONU的时隙长度由最大时隙长度Bmax来确定上限,该最大时隙长度可以通过SLA或其它系统参数来确定。当报告的队列尺寸小于该限制时,OLT授权请求的带宽;否则,授权的带宽为Bmax。LBA通过队列状态报告来跟踪业务流负载,授权的时隙长度根据动态业务流而变化,且服务周期会因为在不同服务周期中为ONU分配不同的时隙长度而变化。LBA的保守特征由于其自身的局限性而限制了每个ONU,这样也限制了对于上行带宽的积极竞争。
在上述带宽协商机制下,如图3所示,每个ONU经历从发送队列状态到发送缓存数据的等待时间。当在时刻t1发送REPORT消息时,ONU仅向OLT报告已经缓存的数据,因此,在等待时间(即,t3-t1)到达的数据不得不被推迟到下一个时隙,即使上行信道负载轻也如此。基于信用(Credit-based)的带宽分配(CBA)[3]考虑了这种数据,当OLT分配上行带宽时,信用被添加到每个ONU的请求中。Bgrant=Bqueue+C,其中Bgrant为授权给ONU的带宽,Bqueue为在缓存器中排队的数据(用带宽表示),C为信用。C可以为常数信用值或线性信用值。在等待时间进入的数据被希望在当前时隙内传送(或部分传送)。
在LBA中,可能有一些轻负载的ONU,其带宽需求低于上述限制。轻负载的ONU未使用的带宽的总和被称为过剩带宽(excessivebandwidth),即Bexcess。作为LBA的扩展,过剩带宽再分配(EBR)通过在重负载的ONU之间重新分配它来利用Bexcess。重负载的ONUk获得附加带宽Badd,k,其中Badd,k=(Bexcess*Bmax,k)/(∑jBmax,i),Bmax,i为在LBA中规定的ONUi的带宽限制。
除了在不同ONU之间的上行信道带宽分配以外,单个ONU有必要为其不同的终端用户提供多种业务。位于客户方的ONU必须能够支持到终端用户的数据、语音和视频业务。这可以通过结合排队、调度和基于分类的带宽分配来实现。
不同的PON技术为业务划分提供它们自己的支持。例如,在EPON中,如图2所示,一个64字节的GATE消息携带多达6个授权给一个特定的ONU。“number of grants”字段指示该消息中有多少授权;“grantlevel”字段指示为其产生授权的队列的顺序。每个授权包含授权起始时间和授权长度。来自ONU的一个64字节的REPORT消息报告多达8个队列的状态。“report bitmap”字段标识被报告队列的顺序。OLT根据带宽分配算法处理队列状态报告,并发回包括至少一个授权的GATE消息。因此,报告ONU的多个队列和为ONU授权多个请求都是可能的,这就使得为ONU的终端用户提供业务划分变得切实可行。
将ONU的业务流分类为不同类别是一种实用的业务划分的方法[11]。高优先级类为“加速转发”(EF),其对延迟敏感且需要带宽保证。中等优先级类为“保证转发”(AF),其对延迟不敏感,但需要带宽保证。低优先级类为“尽力而为”(BE),其既对延迟不敏感又不需要带宽保证。属于不同类别的数据被送入它们对应的优先级队列中。所有的队列共享同一缓存器。当缓存器满时,进入的较高优先级数据取代较低优先级数据,而进入的低优先级数据立刻被丢弃。根据特定的调度方案来传送被缓存的数据。如在IEEE802.1D[12]中定义的那样,“严格优先级调度”首先为被缓存的较高优先级数据服务。只有当其它两个队列都空时,才能传送BE数据。通过遵守优先级顺序,“严格优先级调度”先于可能已经在缓存器中排队的较低优先级数据为在等待时间期间到达的较高优先级数据服务。如图3所示,在等待时间期间(即t7-t5)到达的EF数据将先于较早到达(即在t5之前)的AF和BE数据得到服务。因此,较低优先级数据遭受不可控增长的延迟(如果缓存器未满)或不公平的丢弃(如果缓存器满)。
“基于优先级的调度”[5]通过在特定时间间隔中使用“严格优先级调度”来解决不公平。当ONU在一个间隔中传送了所有缓存的数据之后,如果在当前时隙中还能够传送更多的数据,则为在该时间间隔之后到达的数据服务。通过将间隔配置为发送队列状态之间的时间(即,图3中从t1到t5),在等待时间(即t7-t5)到达的较高优先级数据将在先前间隔(即t5-t1)的所有类别的数据受到服务后才被服务。这种方案为低优先级数据提供了有界限的延迟。
参考文献[5]通过在做出决定之前收集来自所有ONU的队列状态来处理基于分类的带宽分配。无论EF业务流的动态特性如何,OLT都分配固定带宽给所有ONU的EF业务流。AF请求按如下方式被授权:如果所有ONU的AF请求之和小于或等于为EF业务流服务之后所剩余的带宽,则所有AF请求都被授权;否则,剩余带宽在所有AF请求之间相等地分配。在为EF和AF业务流服务之后的剩余带宽在所有的BE请求之间被分配。主要的缺点包括:针对EF业务流的固定带宽分配由于增加了数据延迟而劣化了AF和BE业务流;以及长的报告收集时间,直到已经收到来自所有ONU的报告后该收集时间才会结束。
参考文献[6]中提出的算法按照先前周期中在等待时间进入的数据的量来估计等待时间进入的EF业务流,该算法被称为DAB2。所报告的EF业务流为被缓存的EF数据的总和加上估计值,而报告的AF和EF业务流为实际的缓存的数量。利用EBR来授权请求的带宽,其中轻负载队列接收即时授权,而重负载队列的授权被推迟,直到所有报告均被接收到。DBA2通过立即为轻负载队列进行授权来减轻收集所有报告引起的延迟。这种算法对在等待时间到达的EF数据进行估计,通过分配估计带宽来提供优先权给EF业务流。该算法的缺点是:ONU的服务顺序在每个服务周期中都会改变,而且重负载的ONU总是在轻负载的ONU之后受到服务,因此,由于每个ONU的等待时间可能剧烈变化,所以,对进入的EF数据的估计被严重地破坏。
带有流量预测的限制共享(LSTP)方案
LSTP方案依赖于PON MAC控制消息来分配上行带宽。每个ONU预测其下一个时隙的带宽需求,并发送消息给OLT。OLT基于该报告和SLA来确定带宽分配。
位于客户方的ONU必须能够支持到本地用户的宽带数据、语音和视频业务。将ONU的业务流分类为不同的类别是一种实用的用于提供区分业务的方法。借用Diffserv[7]中的业务流分类,其中高优先级类别为加速转发(EF),中优先级类别为保证转发(AF),以及低优先级类别为尽力而为(BE)。将属于不同类别的数据送入它们对应的优先级队列进行排队。所有的队列共享同一缓存器。当缓存器满时,进入的较高优先级数据取代较低优先级数据,而进入的低优先级立刻被丢弃。
在LSTP中,如图4所示,每个ONU在其专门被分配的时隙中将缓存数据传送到OLT。ONU通过使用上行控制消息(例如,EPON中的REPORT消息)来携带其下一次传送的带宽需求。OLT通过发回下行消息(例如,EPON中的GATE消息)来对该需求进行授权,并以固定顺序对ONU进行服务(例如,如图4所示的EPON情形中OLT交替为两个ONU服务)。
ONU的服务间隔被定义为其数据传送之间的时间。例如,如图4所示,关于ONU1,服务间隔(假设为n)的范围是从时刻t1到时刻t6。时刻t2到时刻t4是ONU1和OLT之间的RTT加上报告处理时间。时刻t2到时刻t6是ONU1在服务间隔n中的等待时间,在该等待时间中,ONU1空闲,且来自本地用户的更多数据进入队列进行排队。ONU1的服务间隔(n+1)开始于时刻t6,且从时刻t6到时刻t8的这个授权时隙基于在时刻t2发送的REPORT消息来决定。关于ONU2,服务间隔n开始于时刻t3,结束于t9。时刻t3到时刻t5是ONU2的专用时隙,并且在时刻t5发送其EF、AF和BE队列状态的报告。时刻t5到t9为ONU2在服务间隔n中的等待时间。
在LSTP中,ONU预测在等待时间期间到达的数据,用带宽表示为:
其中,
为所预测的在服务间隔(n+1)的等待时间期间到达ONUi的c(c∈{EF,AF,BE})类数据,以带宽表示;
是在服务间隔n的等待时间期间到达ONUi的c类数据的实际量,以带宽表示;αl,c,k(n)是权重因数,而L是流量预测器的阶数。预测背后直观的是网络业务流的自相似性,这表示网络业务流呈现长相关[8],且业务流在时隙之间是相关的。
通过最小均方(LMS)算法[9]来更新权重因数:
α i , c , k ( n + 1 ) = α i , c , k ( n ) + μ ( n ) · e i , c ( n ) B i , c w ( n ) , - - - ( 2 ) ]]>
其中,μ(n)为步长,ei,c(n)为预测误差,即:
e i , c ( n ) = B i , c w ( n ) - B ^ i , c w ( n ) . - - - ( 3 ) ]]>
带宽预测的计算复杂度为O(L)。
以带宽表示的预测数据,即
在最佳情况下,应该等于在等待时间期间实际到达的以带宽表示的数据,即
由于预测器的非理想性,预测数据的产生比实际数据更小或更大。在等式(3)中的预测误差被用来对步长进行适应性的调整,因而提高预测准确性。
在服务间隔n中,ONUi通过发送消息给OLT来请求该ONUi在服务间隔(n+1)的带宽,指示用于下一次传输的带宽需求。该带宽需求为进入队列进行排队的数据
与预测值
之和,即:
B i , c r ( n + 1 ) = B i , c q ( n ) + B ^ i , c w ( n + 1 ) . - - - ( 4 ) ]]>
OLT在接收到请求后立即做出带宽分配的决定,服务间隔(n+1)中ONUi的c类业务流的授权带宽为
Bi,cg(n+1)=min{Bi,cr(n+1),Si,c}, (5)
其中,St,c为SLA中针对c类业流务规定的ONUi的最大带宽参数。
通过带宽请求
和最大带宽参数Si,c中较小的值来为ONUi的c类业务的带宽分配确定上限。如果带宽需求不超过最大带宽参数,则所分配的带宽根据进入的业务流而动态地改变。
在最佳情况下,当实际进入的数据等于预测结果时,所有进入队列进行排队的数据从ONU传送到OLT,没有数据被推迟到下一个时隙。当实际数据少于预测结果时,所分配的时隙对于进入队列进行排队的数据来说足够长,且该预测也被认为是成功的。如果实际数据超出了预测结果,那么,所分配的时隙中只能传送部分进入队列进行排队的数据,剩余数据不得不等待下一个时隙。在最后一种情况下的预测是失败的。在以下部分中将从理论角度分析预测成功的概率及其对网络性能的影响。
性能分析
在这部分中,分析LSTP中关于带宽预测的成功概率、数据丢失以及数据延迟方面的性能。为了符号上的简单,在下面的分析中省略了对服务间隔的引用。
预测误差对网络性能起关键作用。如
称该带宽预测是成功的。因此带宽预测的成功概率为:
Pi,cs=P{ei,c≦0}. (6)
对于基于LMS的适应性预测,预测误差是高斯型的[9]。假设预测误差的均值为mi,c,方差为
即, e i , c ≈ N ( m i , c , σ i , c 2 ) , ]]>则带宽预测的成功概率为:
P i , c s = P { e i , c ≤ 0 } ]]>
= 1 2 π σ i , c ∫ - ∞ 0 e - ( x - m i , c ) 2 / 2 σ i , c 2 dx ]]>
= 1 - Q ( - m i , c σ i , c ) - - - ( 7 ) ]]>
= Q ( m i , c σ i , c ) , ]]>
其中Q(.)是Q函数[10]。预测失败的概率为 P i , c f = 1 - P i , c s . ]]>
数据延迟被定义为从数据包进入ONU缓存器进行排队到将该数据包的最后一位发出给OLT的平均时间。关注在等待时间期间进入的数据的延迟。在LSTP中,数据延迟根据预测结果而有所不同。在预测成功时,即,
所请求的带宽足以将在等待时间进入的数据传送给OLT,这样,数据延迟与平均服务间隔长度有关。假设平均服务间隔长度为tint,在成功预测的情况下,数据延迟为
当
时,预测失败,这些进入的数据不得不等待下一个服务间隔来传输。相应的延迟与没有流量预测的系统中的延迟相同,即,
结合这两种情况,数据延迟为:
D = P i , c s · t int 2 + P i , c f · ( t int 2 + t int ) ]]>
(8)
= 3 t int 2 - P i , c s · t int ]]>
与没有流量预测的系统相比,LSTP对在等待时间中到达的数据的数据延迟的改善如下:
β = D no prediction - D D no prediction ]]>
= P i , c s · t int 3 t int 2 - - - ( 9 ) ]]>
= 2 3 P i , c s . ]]>
延迟的减小与预测成功概率紧密相关。越精确的预测意味着越高的
并且在等待时间期间到达的数据的延迟将被进一步减小。
LSTP采用按优先级排队的机制。所有类别的数据共享公用的物理缓存器。EF数据具有最高优先级,AF数据具有中等优先级,以及BE数据具有最低优先级。如果缓存器满,进入的较高优先级数据取代较低优先级数据。
如果缓存器满,并且既没有AF数据也没有BE数据已经在缓存器中排队,EF业务流才会经历数据丢失。假设ONUi中的固定缓存器尺寸为Ai,则ONUi中的EF业务流的帧丢失概率为:
P i , EF loss = P { B i , EF w + B i , EF q > A i } ]]>
其中,mi,EF和
分别为EF业务流预测误差ei,EF的均值和方差。
如果缓存器满,并且已进入队列排队数据属于EF或AF业务流,则到达的AF数据被丢失。相应的数据丢失概率为:
P i , AF loss = P { B i , EF w + B i , EF q + B i , AF w + B i , AF q > A i } ]]>
EF业务流和AF业务流是独立的,且LSTP对这两种业务流分别采用专用的预测器,因此,ei,EF和ei,AF是独立的。进一步假设 e i , EF ≈ N ( m i , EF , σ i , EF 2 ) ]]>和 e i , AF ≈ N ( m i , AF , σ i , AF 2 ) , ]]>则:
类似地,如果缓存器满,BE数据被丢失。假设EF、AF和BE业务流的预测误差分别为 e i , EF ≈ N ( m i , EF , σ i , EF 2 ) , ]]> e i , AF ≈ N ( m i , AF , σ i , AF 2 ) ]]>以及 re i , BB ≈ N ( m i , BB , σ i , BB 2 ) , ]]>如以上所讨论的,这些预测误差是独立的。因此,ONUi中的BE业务流的数据的丢失概率为:
P i , BE loss = P { B i , EF w + B i , EF q + B i , AF w + B i , AF q + B i , BE w + B i , BE q > A i } ]]>
仿真
通过仿真结果来评价LSTP方案的性能。在OPNET仿真器中建立如图1所示的系统模型,该系统模型具有一个OLT和32个ONU。每个ONU具有20M字节的有限缓存器,上行信道和下行信道均为1Gbps。进入的业务流是自相似的,其Hurst参数为0.8。以太网数据的长度在64字节到1518字节之间随机变化。整个网络的总业务流负载从0.1变化到0.8,EF、AF和BE数据分别占20%、30%和50%的业务流。为了比较的目的,使用参考文献[3]中的LBA方案、参考文献[6]中的DBA2方案和本发明提出的本系统模型中的LSTP方案。LSTP中预测器的阶数,即L,被设置为4,步长μ由下式设定:
μ ( n ) = L Σ k = 0 L - 1 [ B i , c w ( n - k ) ] 2 ]]>
品质指数为数据延迟和数据丢失。图5示出了平均数据延迟和网络业务流负载之间的关系。LBA经历最长的延迟,这归因于LBA忽略了在等待时间期间进入的数据,因此更多的数据有可能被推迟到下一个时隙。DBA2通过使用对在等待时间期间进入的EF业务流进行粗略预测的方法而减轻了这个问题。从LBA到DBA2的延迟的减小显示出流量预测在减少上行传送等待时间方面起到了重要的作用。LSTP胜过DBA2和LBA。有几点有助于LSTP获得最短的平均数据延迟。首先,LSTP对所有类型的业务流进行预测,而不像DBA2中那样仅对一个类别的业务流进行预测,也不像LBA中那样不进行流量预测。第二,在LSTP中通过使用适用于适应性的在线流量预测的基于LMS的预测器,改善了预测准确性。第三,LSTP执行固定的ONU服务顺序,而不是DBA2中的动态服务顺序,从而减少了像DBA2中那样的服务间隔长度的剧烈变化,因此有助于流量预测。第四,在LSTP中,OLT即时应答ONU带宽请求。在DBA2中,重负载的ONU总是在轻负载的ONU之后得到服务,而那些重负载ONU中被推迟的业务导致了进入的数据的较长的延迟。
越短的平均数据延迟意味着ONU传送数据越快,因此,由于缓存器溢出而导致的数据丢失机会也更少。LBA、DBA2和LSTP的关于数据丢失的性能显示出与数据延迟相似的趋势。数据丢失率被定义为丢失的数据量与总数据量的比。如图6再次所示,LBA的数据丢失率最大,LSTP的数据丢失率最小,这显示了由LSTP提供的流量预测和即时带宽分配通过请求预测的带宽而减少了数据丢失,由此减少了缓存器中堆积的数据量。
所公开的LSTP方案通过基于分类的流量预测以及基于SLA的确定上限的带宽分配,增强了ONU之间的上行带宽的共享。已经根据预测成功概率、平均数据延迟和基于分类的数据丢失概率各方面,对LSTP的性能进行了理论分析。仿真结果证明了LSTP增强了对在等待时间期间进入的数据的预测准确性,而且改进的流量预测也有助于减少数据等待时间和数据的丢失。
虽然为说明的目的已经公开了本发明的优选实施例,但是本领域的技术人员应该理解,可以有许多添加、修改和替换而不脱离如所附的权利要求所限定的本发明的精神和范围。
参考文献
[1]IEEE802.3ah task force home page.http://www.ieee802.org/3/efm
[2]ITU-T Study Group 15 home page.http://www.itu.int/ITU-T/studygroups/com15/index.asp
[3]G.Kramer,B.Mukherjee,and G.Pesavento,“IPACT:a dynamic protocolfor an EthernetPON(EPON),”IEEE Communications Magazine,vol.40,no.2,pp.74-80,Feb.2002.
[4]M.Ma,Y.Zhu,and T.H.Cheng,“A bandwidth guaranteed polling MAC protocol forEthernet passive optical networks,”in Proc.IEEE INFOCOM,San Francisco,CA,pp.22-31,Mar.-Apr.2003.
[5]S.Choi and J.Huh,“Dynamic bandwidth allocation algorithm for multimedia services overEthernet PONs,”ETRIJournal,vol.24,no.6,pp.465-468,Dec.2002.
[6]C.M.Assi,Y.Ye,D.Sudhir,andM.A.Ali,“Dynamic bandwidth allocation for quality-of-service over Ethernet PONs,”IEEE Journal on Selected Areas in Communications,vol.21,no.9,pp.1467-1477,Nov.2003.
[7]S.Blake,D.Black,M.Carlson,E.Davies,Z.Wang,and W.Weiss,“An architecture fordifferentiated services,”IETF RFC 2475.
[8]W.Willinger,M.Taqqu,R.Sherman,and D.Wilson,“Self-similarity through high-variability:statistical analysis of Ethernet LAN traffic at the source level,”IEEE/ACMTransactions on Networking,vol.5,no.1,pp.71-86,Feb.1997.
[9]S.Haykin,Adaptive filter theory,3rd edition,Prentice Hall,1996.
[10]A.Leon-Garcia,Probability and random processes for electrical engineering,2nd edition,Addison-Wesley,1993.
[11]G.Kramer and G.Pesavento,"Ethernet passive optical network(EPON):building a next-generation optical access network,"IEEE Commun.Mag.,vol.40,no.2,Feb.2002,pp.66-73.
[12]IETF RFC 2475,"An architecture for differentiated services,"Dec.1998.
[13]ANSI/IEEE Standard 802.1D,part3:Media Access Control(MAC)Bridges,1998.