News
时间:2022-08-30来源:光启智能研究院 韩佳巍
GPU加速的计算系统可为诸多科学应用提供强大的计算能力支撑,亦是业界推动人工智能革命的重要手段。为了满足大规模数据中心和高性能计算场景的带宽拓展需求,光通信和光互连技术正在迅速而广泛地渗入此类系统的各个网络或链路层级。作为系列文章的第三篇,本文针对GPU网络中光互连的市场和产业趋势、策略和计划做出分析。
上述现象在2016年最为明显。彼时,全球数据中心的传输链路迎来了由40 Gbit/s到100 Gbit/s的大规模链路升级。自此以降,受到新数据中心的扩张建设、已有数据中心的翻新改装、企业级数据中心的实际部署等因素的推动,光收发器的收益便以39%的复合年均增长率大幅增长[1]。而为了满足数据中心应用对100 Gbit/s光模组的大批量需求,光收发器供应商的制造能力也得到了大幅提升。
占据设备连接总数目的最大一部分便是数据中心内部的服务器互连,而带宽消耗的显著增长则使得人们需要更多地去考虑光互连的成本效益问题。为了适应近期PAM4的广泛使用和服务器速率由10 Gbit/s向着25 Gbit/s转化,网络的上行链路亦需增速。事实上,人们对容量提升的初始目标是引入400 Gbit/s的解决方案;而从成本和性能优化的角度考虑,业界在中途又加入了200 Gbit/s方案,以试图为后续400 Gbit/s方案寻求一个更加适宜的迁移路径。自2016年至2021年,光收发器总体(包括100 G,200 G,400 G)的复合年均增长率为63%;而仅就100 G光收发器而言,其复合年均增长率高达53%[2]。这主要是因为自2019年以来,200 G和400 G光收发器被商业化部署并开始小幅占据100 G光收发器的市场份额(见图1)。
对于数据中心内部的短距离光互连来说,多模光纤链路仍要比单模光纤链路占据更为主要的地位。与传统的串行传输有所不同,并行光路传输使用一个光模块接口,数据在多根光纤中同时得以发送和接收:40 GbE传输由4根光纤之上的单方向4×10 G实现;100 GbE传输由10根光纤之上的单方向10×10 G实现。这类标准引领了对高质量、低损耗的多模多路并行光学(Multi-Parallel Optics, MPO)接口的需求。
人们对数据中心带宽增长的不断需求继续驱动着业界的更多革新。以往,数据中心互连仅要求在多模或单模光纤中传输单个波长,而近期的技术驱动则聚焦在单模光纤中传输多个波长。2016年,与100 Gbit/s光收发器相符合的粗波分复用(Coarse Wavelength Division Multiplexing 4, CWDM4)技术已可以和并行单模(Parallel Single Mode 4, PSM4)在市场份额方面平分秋色。而随着200 Gbit/s和400 Gbit/s自2019年开始的实际部署,市场容量的增长已经由并行光路技术和多波长技术共同驱动。
在2016年早期,众多业界领军者在多源协议方面合作开发了一种高速的双密度四通道小型可插拔(Quad Small Form Factor Pluggable- Double Density, QSFP-DD)接口。作为可插拔收发器,QSFP-DD在保持占用空间以实现与标准QSFP的反向兼容之外,可为8通路的电接口附加提供的一排触点。QSFP-DD 8个通路中的任意一个都可以在25 Gbit/s NRZ调制或50 Gbit/s PAM4调制下工作,从而可以为200 Gbit/s或400 Gbit/s的聚合带宽提供支持;而QSFP-DD的反向兼容特点也可支撑新兴模块类型的使用、加速总体网络迁移。
当前,标准的QSFP收发器模块连接均已采用LC 双工连接器(尤其是在基于波分复用的双工模块情形下)。尽管LC双工连接器仍可在QSFP-DD收发器模块中使用,但是传输带宽还受限在单独的波分复用引擎设计上。该引擎使用一个1:4复用/解复用器来达到200 GbE,或是使用一个1:8复用/解复用器来达到400 GbE。这无疑增加了收发器的成本,并且提高了对收发器的冷却要求。
在保持连接器占用空间不变的前提下,人们期待能够实现一种可将连接器与QSFP-DD之间的连接性提升一倍的新型连接器类型。于是,作为一种双套管连接器,CS连接器应运而生。如图2所示,和LC双工连接器相比较,CS连接器的占用空间相对更小。于是,人们可在一个QSFP-DD模块的前接口部署两个CS连接器。这使得双波分复用引擎具有了较好的可行性:该双引擎可使用一个1:4复用/解复用器来达到2×100 GbE,或是在一个单独的QSFP-DD收发器上实现2×200 GbE。除了QSFP-DD收发器之外,CS连接器亦可与八通道小型可插拔模块和板中光学模块相适配。
在众多供应商采用QSDP-DD作为收发器接口的时候,网络交换面板密度也在成倍增加。自2012年以来,数据中心交换机的最大网络交换面板密度是128个单通道(信道)端口或32个4通道端口。近期,网络交换机ASIC供应商已能够将单个交换ASIC的信道数目提升到256个乃至512个。在保持单个机架单位交换机面板形状系数的同时,为了有效管理不断增长的带宽密度,人们在若干类多源协议(包括QSFP-DD,OSFP,SFP-DD)中采用了双倍密度的光收发器。由此,光纤数目也已经由4通道增长到了8通道、乃至于提升至8对光纤。而为了保持和已安装的光纤和网络交换机基础设备的兼容性,在上述收发器的实际部署中,人们可将8通道分开为2个独立的四路接口。当新型交换器得以实际部署时,数据中心的短期需求便是在同样物理空间之内的光纤对终端数量的增加。
上述需求又反过来促使业界人士去探寻进一步的革新:如图3所示,与CS连接器将LC连接器的密度增加一倍相类似,SN连接器又将CS连接器的密度增加了一倍。
如图4所示,SN连接器是一种面向400 G数据中心优化方案的新型双工光纤连接器,其设计初衷是为四路方式收发器(QSFP,QSFP-DD,OSFP)提供独立的双工光纤分线。与MPO连接器相比较,SN连接器的效率和可靠性较高、成本较低。
自2018年的Optical Fiber Communication Conference开始,市场分析师和技术专家便对将光互连部件移动到距离ASIC更近位置的必要性开展了广泛讨论。而早在2017年,the Consortium for On-Board Optics已针对板上光学发布了第一部工业指标规范[3]。这些技术布局的关键推动力就是高数据速率条件下铜线互连的固有限制。随着数据速率的上升,铜线的衰减大幅增加且其绝对传输限制被限定在100 Gbp/s/m[4]。而对高于这一限制的速率来说,使用光学信道便成了无法避免的技术手段。因此,光互连产业的演进并不仅限于板上光学,也包括了用于替代传统集成电路的光子集成光路(Photonic Integrated Circuits, PIC)。如图5所示,光互连下一步的演进既要满足前面板互连器件的需求,又要更多考虑PIC、板中和背板的互连器需求。
近期,IBM公司的P. Maniotis等[7]对使用高通道数目交换机(借助低功率的共封装光学)实现更加扁平化网络的优势做出了详细讨论。图6展示了一个由“当今的”36端口单芯片交换机所构成的高性能计算规模网络(包含11600个终端);而图7展示了一个由152端口交换芯片所构成的类似规模网络。相较而言,更加扁平化的网络可令交换芯片的数量减少85%,可大幅降低功耗和成本。
图8展示了各式各样工作负载类型的需求范围。随着特定工作负载的重要性不断增加,针对特定任务(如人工智能训练)来制定专门的计算和网络设计将会是业界的一个关键考虑。