扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
云的基本特征是动态、弹性、灵活,按需计算,传统的网络架构与技术虽然也能构筑云计算的基础平台,但是因此而形成的传统运行架构却无法支撑如此动态化的IT业务要求。它必然要求一种新的IT运行模式,将大量的计算资源以动态、按需的服务方式供应和部署。
传统业务结构下,由于多种技术之间的孤立性(LAN与SAN),使得数据中心服务器总是提供多个对外IO接口:用于数据计算与交互的LAN接口以及数据访问的存储接口,某些特殊环境如特定HPC(高性能计算)环境下的超低时延接口。服务器的多个IO接口导致了数据中心环境下多个独立运行的网络同时存在,不仅使得数据中心布线复杂,不同的网络、接口形体造成的异构还直接增加了额外人员的运行维护、培训管理等高昂成本投入,特别是存储网络的低兼容性特点,使得数据中心的业务扩展往往存在约束。
由于传统应用对IT资源的独占性(如单个应用独占服务器),使得数据中心的业务密度低,造成有限的物理空间难以满足业务快速发展要求,而已有的系统则资源利用效率低下。而且,传统业务模式下,由于规模小,业务遵循按需规划,企业应用部署过程复杂、周期漫长,难以满足灵活的IT运行要求。在云计算这种变革性运营与服务模式下,必须能够解决成本、弹性、按需增长的业务要求,并改进与优化IT运行架构。因此:
云计算服务必然要求一种大规模的IT运行方式,在极大程度上降低云计算基础设施的单位建设成本,大幅降低运行维护的单位投入成本。通过网络与IO的整合来消除数据中心的异构网络与接口环境,云计算中心需要优化、简化的布线与网络环境。
由于其业务集中度、服务的客户数量远超过传统的企业数据中心,导致了高带宽的业务流,如图1所示的亚马逊对外公布其2008年提供云计算服务后,云服务的带宽增长速度远高于其WEB服务的带宽增长。
图1 亚马逊的云计算服务高速带宽增长需求
总的来说,为满足云计算的业务要求,统一的基础网络要素必然包括:超高速交换、统一交换、虚拟化交换、透明化交换。
1. 云计算的超高速网络
以太网技术迅速发展,10GE技术当前已经在数据中心的骨干广泛应用,图2显示了2010年的以太网技术40G/100G标准发布,表明基础网络将快速进入超高速时代。
图2 以太网的带宽提升
同样,服务器IO也由千兆向万兆快速发展,随着IO加速技术、IO虚拟化技术的不断提升以及服务器多路多核计算能力的提升,当前的服务器IO已经具备接近10GE线速的吞吐能力,这种来自网络接入层的高性能吞吐必然驱动云计算网络架构采用更高的性能,以满足能力的匹配(如图3所示)。
图3 数据中心网络的高带宽发展
2. 云计算的统一交换网络
以太网原本是以简单、高效为特质的常规技术,适用于常规网络通信的支撑,依赖于上层协议解决网络拥塞、丢包问题。随着以太网技术的不断演进与提升,无损以太网技术(Lossless Ethernet)标准族开始确立。
这一标准族称为数据中心以太网DCE或融合增强以太网CEE,包括基于优先级的流控(Priority-based flow control PFC; IEEE 802.1Qbb) 、增强传输选择技术(Enhanced transmission selection ETS; IEEE 802.1Qaz) 、拥塞通告(Congestion notification IEEE 802.1Qau) 、链路发现协议LLDP (IEEE 802.1AB)的扩展数据中心桥能力交换协议(Data Center Bridging Capability Exchange Protocol DCBX)。以当前已经完全实现的PFC+DCBX组合为例,如图4所示,在交换机端口的8个队列进行buffer的分配,形成了网络中8个虚拟化通道,数据流带上自身的通道标签(802.1q进行标识),buffer大小使得各队列有不同的数据缓存能力,由DCBX协议交换不同网络单元的基本能力信息,以确定数据的突发能力。
图4 无丢包以太网
一旦出现瞬时拥塞,即某个设备的队列缓存消耗较快,超过一定阈值(可设定为端口队列的1/2、3/4等比例),设备即向数据进入的方向(上游设备)发送反压信息,上游设备接收到反压信息,会根据反压信息指示停止发送或延迟发送数据,并将数据存储在本地端口buffer,如果本地端口buffer消耗超过阈值,则继续向上游反压,如此一级级反压,直到网络终端设备,从而消除网络节点因拥塞造成的丢包。
无损以太网的特性,可以完全满足存储业务对于丢包的敏感性,因此,FC存储数据承载在以太网上(FCoE),基于DCE技术的支持,新一代以太网技术完全可以融合数据中心的存储网络形成全业务的统一交换。在这样的技术支撑下,数据中心网络将实现合并,使得原本多种异构的网络形态合并到一套网络,从而也实现了多个网络管理合并、简化成为一个管理视图(如图5所示)。
图5 数据中心统一交换网络
以太网带宽的增长使得在兼容后续FC更高带宽8G、16G的FCoE技术成为可能,如图6所示,当前的10GE DCE技术支撑的FCoE可完全支持4G/8G FC向10G FCoE的融合,有些网卡的FC-FCoE映射就是直接将4G/8G FC载入以太网进行转发。对于后续更高带宽的40G以太网技术会延续和完善DCE特性,因此可对更高的FC带宽16G进行融合。
图6 FCoE的融合趋势
统一交换网络提供对云计算的支撑,可提供单一数据中心网络,实现云计算上层应用对数据交换、传送通道与IO的简化统一操作,同质的底层网络提供超高容量数据吞吐支撑、提供广泛兼容的云应用升级与扩展能力。
3. 云计算的虚拟化交换网络
虚拟化技术是云计算的关键技术之一,将一台物理服务器虚拟化成多台逻辑虚拟机VM,不仅可以大大提升云计算环境IT计算资源的利用效率、节省能耗,同时虚拟化技术提供的动态迁移、资源调度,使得云计算服务的负载可以得到高效管理、扩展,云计算的服务更具有弹性和灵活性。
从网络角度看虚拟化的计算资源,,一个VM完全等效于一台物理服务器在运行,而VM的动态机制,则与物理服务器的位置搬迁是完全不一样的,对于VM迁移带来的网络配置、统计、策略控制等复杂管理工作,使得当前网络运维难度增大,因此,网络支持虚拟交换技术,对于迁移的VM而言,网络总可以跟随VM的动态变化提供按需交换(配置、统计、监控、管理),能够极大强化云计算的虚拟化服务功能(如图7所示)。
图7 虚拟化交换网络
一种新的网络虚拟化技术EVB(Edge Virtual Bridging:IEEE 802.1Qbg)标准正在制订,这种技术使得虚拟化后服务器上VM的虚拟网卡标准化,并以扩展的LLDP标准协议与网络交换VM信息。EVB要求所有VM数据的交换(即使位于同一物理服务器内部)都通过外部网络进行,即外部网络能够支持虚拟交换功能,对于虚拟交换网络范围内VM动态迁移、调度信息,均通过LLDP扩展协议得到同步以简化运维。
4. 云计算的透明化交换网络
对于虚拟化云计算服务,需要构建大范围(数据中心内部、数据中心之间)的二层互联网络,以支持虚拟机算资源的迁移和调度(对于大型集群计算,也可构建二层网络,以保持集群的简单,但目前也有构建路由网络连接实现大型集群)。二层网络的好处是对虚拟机的透明化,但是为保证网络的高性能、可靠性,需要解决网络环路问题。
数据中心内部,通过采用IRF2技术(智能弹性架构),可以构建大型的二层透明交换网络,具有网络结构简单、保持高性能与高可靠、避免环路的好处。在数据中心内部,构建端到端的IRF2虚拟化网络,实现内部虚拟化计算的透明交互(如图8左侧图所示);构建IRF2核心网,核心网设备位于不同地域,但是虚拟化成一台逻辑设备,数据中心与核心网以跨地域聚合链路互联,消除了网络环路,也保证了网络的可靠性和链路充分利用(如图8右侧图所示)。
图8 基于IRF2的云计算透明交换网
目前为解决网络的二层透明环境部署问题,一种新技术TRILL(Transparent Interconnection of Lots of Links多链路透明互联)正在形成标准,这种技术的本质是改造交换技术和IS-IS路由技术,实现在IS-IS路由网络下的大规模二层交换承载(如图9所示)。
图9 基于TRILL的透明交换网络
TRILL网络的链路层可以是以太网,也可以是PPP链路,因此这种新的标准具有很大的适应性,可在数据中心内部高速网络实现,也可以用于连接基于PPP链路的广域网络。
云计算作为一种新型的IT运行模式,要求新的架构来支持其不断发展,以实现云服务的弹性、动态等关键需求,而其支撑网络也必然会形成统一的基础架构,超高速、统一交换、虚拟交换、透明交换等新的技术特性会随着技术的逐步成熟广泛应用到云计算中。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者