关于InfiniBand的技术问答

通信飞飞飞 2024-03-09 19:42:41

随着大数据和人工智能技术的进步,对高性能计算的需求不断增长。为了满足这一需求,英伟达(NVIDIA)Quantum-2 InfiniBand平台为用户提供了卓越的分布式计算性能,实现高速和低延迟的数据传输和处理能力。

这些是关于IB技术的常见问答。

问:CX7 NDR200 QSFP112端口是否与HDR/EDR线缆兼容?

答:是的,可以兼容。

问:如何将CX7 NDR网卡连接到Quantum-2 QM97XX系列交换机?

答:CX7 NDR网卡使用英伟达(NVIDIA)的400GBASE-SR4或400GBASE-DR4光模块,而QM97XX系列交换机使用800GBASE-SR8(相当于2x400GBASE-SR4)或800GBASE-DR8(相当于2x400GBASE-DR4)光模块。这些模块使用12芯多模通用极性APC端面网线进行连接。

问:CX7网卡双端口400G可以通过绑定实现800G的速率吗?为什么200G可以通过绑定实现400G?

答:整体网络性能由如PCIe带宽瓶颈、网卡处理能力和物理网络端口带宽等因素决定。CX7网卡具有5.0 x16的PCIe规范,理论带宽限制为512Gbps。由于PCIe 5.0 x16的最大带宽限制,CX7网络适配器上没有可用于双端口400G的硬件。

问:如何连接分支线缆?

答:为了实现出色性能,分支线缆(800G到2x400G)需要连接到两台不同的服务器上。这样可以确保分支线缆不完全连接到以太网服务器网卡上,因为GPU服务器通常有多个网卡。

问:在InfiniBand NDR情景中,一分二线缆是如何连接的?

答:在InfiniBand NDR情景中,有两种类型的分支线缆。第一种类型使用带有分线的光模块(将400G分为2x200G),例如MMS4X00-NS400 + MFP7E20-NXXX + MMS4X00-NS400(降级为200G使用)。第二种类型使用分支高速线缆(将800G分为2x400G),例如MCP7Y00-NXXX或MCP7Y10-NXXX。

问:在Superpod网络中,每台服务器上的4个NDR200卡是否可以使用1x4线缆直接连接到同一交换机,还是应该使用2个1x2线缆连接到不同的交换机?

答:在Superpod网络中,不建议使用一分四线缆将每台服务器上的4个NDR200端口直接连接到同一交换机。这种连接方式不符合Superpod网络规则。为了确保NCCL/SHARP的出色性能,叶交换机应使用一对四线缆以特定的模式连接不同服务器的NDR200端口。

问:关于最新的Superpod网络,根据Superpod网络白皮书的说明,在计算网络中需要单独配置2个带有UFM软件的IB交换机。然而,这样的配置会导致集群中少一个GPU节点。如果选择不设置单独的UFM交换机,而是仅在管理节点上部署UFM软件,我能否通过另一组存储网络管理集群而不影响计算网络?

答:建议配置UFM设备,包括软件。在计算网络中的管理节点上部署UFM软件是一种替代方案,但它不应承担GPU计算工作负载。存储网络作为一个独立的网络层面运行,不能用于管理计算集群。

问:企业UFM、SDN、遥测和Cyber-Al之间有什么区别?购买UFM是否有必要?

答:可以使用OFED中包含的opensm和命令脚本工具进行简单的管理和监控,但缺少UFM友好的图形用户界面和许多功能。

问:交换机、OFED和UFM所需的子网管理器数量有差异吗?哪个更适合客户部署?

答:交换机管理适用于最多2K个节点的网络。UFM和OFED的openSM节点管理能力没有限制,但需要与管理节点的CPU和硬件处理能力协调。

问:为什么一个具有64个400Gb端口的交换机只有32个OSFP端口?

答:这个限制在于2U面板的尺寸和功耗限制,它只能容纳32个插槽。这个配置是为了支持两个400G端口的OSFP接口而设计的。在NDR交换机中,插槽和端口的概念是有区别的。

问:是否可以使用线缆连接两个具有不同接口的模块来传输数据?例如,使用一根线缆将服务器上的OSFP端口连接到交换机上的QSFP112端口?

答:模块的互连与封装是独立的。OSFP和QSFP112主要描述模块的物理尺寸。只要以太网介质类型相同(即,链路的两端都是400G-DR4或400G-FR4等),OSFP和QSFP112模块可以相互兼容。

问:UFM可以用来监控RoCE网络吗?

答:不可以,UFM仅支持InfiniBand网络。

问:对于管理型和非管理型交换机,UFM的功能是否相同?

答:是的,功能是相同的。

问:IB线缆支持的最大传输距离是多少,会不会影响传输带宽和延迟?

答:光模块+跳线可以达到大约500m,而无源高速线缆的范围约为3m,有源ACC线缆可达到5m。

问:CX7网卡是否可以连接到其他支持以太网模式下RDMA的400G以太网交换机?

答:可以建立400G以太网连接,并且RoCE可以在这种情况下工作,但性能不能保证。对于400G以太网,建议使用由BF3+Spectrum-4组成的Spectrum-X平台。

问:NDR是否与HDR和EDR兼容,这些线缆和模块只有一种规格吗?

答:是的,通常使用OSFP到2xQSFP56 DAC/AOC线缆以确保与HDR或EDR兼容。

问:OSFP网卡端的模块应该是扁平模块吗?

答:网卡配有散热器,所以可以直接使用厚模块。散热片模块主要用于液冷交换机端。

问:IB网卡是否支持以太网模式下的RDMA?

答:可以启用RoCE,建议使用英伟达(NVIDIA) Spectrum-X解决方案。

问:为什么没有NDR光缆?

答:OSFP模块体积大、较重,使得光纤更容易受到损坏。一个两分支的线缆会有3个大型光模块端口,而一个四分支的线缆会有5个光模块端口。这增加了在安装过程中光纤断裂的风险,尤其是在30m的AOCs中。

问:除了不同的光模块外,400G IB和400G以太网使用的线缆是否相同?

答:线缆是相同的,但需要注意的是它们都是成8°角的APC类型。

问:CX7网卡对延迟性能有特定要求吗?在优化的调试环境下,例如完全使用内存和绑定核心,网络延迟要求是多少?可接受的延迟值是多少,例如小于多少μs?

答:延迟性能取决于测试机器的频率和配置,以及所使用的测试工具,如perftest和MPI。

问:OSFP网卡端的模块应该是OSFP-平模块吗?为什么提到了OSFP-搭载散热器?

答:“搭载散热器”是指集成在插槽中的散热器。

问:UFM在这个集群解决方案中起什么作用?

答:UFM在服务器上独立运行,可以被视为一个节点。它支持使用2个服务器实现高可用性。但是,不建议在处理计算工作负载的节点上运行UFM。

问:推荐为什么规模的网络集群配置UFM?

答:建议为所有InfiniBand网络配置UFM,因为UFM不仅提供openSM,还提供其他强大的管理和接口功能。

问:PCIe 5只支持最高512G吗?PCIe 4呢?

答:PCIe Gen5提供最高32G x 16通道,从而获得最大带宽512G。另一方面,PCIe Gen4提供最高16G x 16通道,提供最大带宽256G。

问:IB网络卡支持单工或双工模式吗?

答:IB网络卡都是双工的。单工或双工只是对当前设备的一个概念,因为发射和接收数据的物理通道已经分开。

问:飞速(FS)能为建设IB网络集群提供技术支持和高质量产品吗?

答:当然可以,飞速(FS)专注于提供高性能计算和数据中心解决方案。在构建IB网络集群方面,飞速(FS)拥有丰富的经验和专业知识,并提供多种连接方案,以满足不同客户的需求。

飞速(FS)的InfiniBand解决方案包括速率为800G、400G、200G、100G和56/40G的AOC/DAC线缆和光模块,以及英伟达(NVIDIA) InfiniBand网卡和英伟达(NVIDIA) InfiniBand交换机。在IB网络集群解决方案中,飞速(FS)的专业团队将根据您的需求和网络规模提供合适的解决方案,确保网络稳定性和高性能。

了解更多信息和支持,请访问飞速(FS)官网。

0 阅读:1

通信飞飞飞

简介:感谢大家的关注