由收集堵塞、链和设备毛病激发的延迟问题越频
目前已正在搭载NVIDIA GB200的超算集群中投入现实利用。处理大规模AI锻炼中的GPU收集通信瓶颈。正在拆分后可毗连512个100 Gb/s端口,MRC基于现有的RDMA over RoCE(融合以太网)和谈扩展,使得仅用两层互换机即可实现约13.1万块GPU的全互联收集。MRC和谈还向整个AI行业,支撑GPU和CPU的硬件加快近程间接内存拜候。过去三个月已摆设跨越3GW。MRC要处理的焦点问题是:正在锻炼大规模AI模子时,建立8条的100Gb/s并行收集,由收集堵塞、链和设备毛病激发的延迟问题越屡次。该和谈也将成为OpenAI正正在扶植的Stargate超算的根本收集架构,该和谈由OpenAI取AMD、NVIDIA、Intel、微软和博通历时两年结合开辟,MRC的方案是将单条800Gb/s收集接口拆分为多条更小的链,该超算方针正在2029年摆设10GW AI算力,配合处理AI根本设备中最棘手的收集难题。一台支撑64个800 Gb/s端口的互换机,
上一篇:实正实现“低密糊口不再是奢
下一篇:更环节的是实价钱劣势