1. 首页
  2. 服务器

数据中心基础网络的挑战与驱动力

随着企业数据中心建设的深化进行,企业业务数据集中密度越来越高,服务器存储数量不断增长,网络架构不断扩展,空间布局、系统布线、电力能耗压力不断增加。作为数据中心业务承载的大动脉,基础网络架构层面则直接面临着持续的严格挑战。网络基础技术的快速发展为数据中心变革提供了强大支撑动力,基础网络演进加快。

1、高密服务器、存储数据中心

数据中心的物理服务器、存储系统数量快速增长,使得数据中心规模不断扩大。企业数据集中、业务整合的过程,表现为高密应用系统的集中。同时,服务器与存储等IT设备计算处理能力遵循摩尔定律的增长,也使得数据中心的业务处理能力持续增强。

目前1Gbps~8Gbps级别的服务器、存储系统网络接口成为主流,从而使得基础网络系统的千兆接入、万兆互联成为数据中心建设的基本标准。

新一代计算设备已经开始提供万兆接口,多核服务器已具备万兆吞吐能力,多万兆网络接口的服务器、存储系统开始在企业数据中心进行部署,计算能力迅速提升的同时也让面向网络的接入带宽需求过渡到万兆环境。

计算虚拟化的技术革新,使单一高计算能力物理服务器虚拟化成多个逻辑计算单元,极大提高了系统的计算效能以及对存储访问的高速吞吐。而由于等同于将此前的多个服务器应用系统叠加在一个网络接口下,网络流量急速提升,因此对数据中心基础网络提出了相当于传统环境下数倍乃至数十倍的性能要求。

同时,在高密应用集中环境下,基础网络的可靠性要求更为苛刻。局部网络产生的故障,对数据中心提供服务能力的影响比传统环境要更为严重。传统数据中心的局部故障可能只对单一应用造成短时影响,而新的数据中心环境下,则是大量应用密集,故障影响范围扩大化。因此,对于网络变化的快速收敛、更强的故障自愈能力也成为下一代数据中心平台的重要研究课题。

2、数据中心多个独立网络

数据中心发展建设过程中,出于不同的应用连接要求,逐步出现了多个独立网络系统,如图1所示。

以太网交换网络:用于连接承载终端客户与业务服务器系统的数据访问,强调高速、可靠、安全、远端互联性、开放性,是当前标准化最普遍的基础网络形态。

服务器高速互联网络:多用于服务器高速集群互联,在大多数条件下使用以太网进行承载;但在某些特殊要求应用环境下,使用Infiniband(简称IB)网络进行集群互联。IB的特点主要是时延小,不丢包。IB的低时延在于转发机制为cut-through模式(传统以太网交换机为store-forwarding模式),可达200纳秒。同时IB通过credit机制进行端到端流控,使得网络突发大流量得到平缓,数据保持在服务器接口而避免流量丢失。

存储访问网络:用于承载服务器上层应用系统对后端存储的数据操作,存储网络主要用于传送SCSI指令,核心要求是高带宽、不丢包。目前常见的存储网络有FC交换机构建的FC-SAN和以太网交换机构建的IP-SAN。

多套网络的数据中心,不仅增加了投资成本,同时由于技术差异大,需要不同的专业人员进行操作,给数据中心的运行管理带来很多不便及较高的培训成本。随着数据中心规模不断增大,庞大的异构网络也成为影响数据中心TCO的一个重要环节。

3、数据中心流量突发

数据中心基础网络高性能的特点已经为建设者不容置疑,全线速、高带宽是设备选型的核心因素。但是,随着数据中心应用的迅猛增长,网络承载的业务流也不断增长。

根据网络观测,以1毫秒为间隔采集到的流量峰值是平均流量的2~3倍。因此在高密应用环境下的数据中心网络中,特别是万兆互联环境下,业务流量突发异常显著,而这样的突发数据流需要网络交换系统进行缓存和排队调度。通常的网络设计虽然是千兆服务器接入、万兆网络骨干,但在网络的骨干层面基本存在一定的带宽收敛设计,如出现多个万兆端口向较少万兆端口突发数据,则存在严重的突发拥塞瓶颈。

当交换系统对流量突发的缓存调度能力有限时,必然导致在集中业务访问引起的流量突发情况下的大量丢包,引起传输层的窗口滑动、重传和流量环境进一步恶化,降低服务响应能力。

传统的交换方式最多只能进行8种流的区分和调度,业务能力有限,难以满足当前数据中心高密应用需求,特别是浪涌突发环境下,粗粒度调度能力、低容量网络缓存无法解决众多关键应用的高吞吐量突发访问业务要求。

原创文章,作者:cheshirex,如若转载,请注明出处:https://www.homedt.net/3758.html

联系我们

联系QQ:28575315