Satisfaciendo las Demandas de la IA y las Cargas de Trabajo Modernas
Para soportar cargas de trabajo de computación de alto rendimiento (HPC) como el entrenamiento de IA/ML (inteligencia artificial/aprendizaje automático), las redes de back-end despliegan una arquitectura spine-leaf (espina y hoja), donde los leaf switches se conectan a cada spine switch . Dentro de los pods (clústeres) de IA, que están diseñados específicamente para realizar tareas concretas, los leaf switches proporcionan interconexiones de alto ancho de banda y baja latencia entre las GPU.
Los switches sipine-leaf se conectan típicamente a 800 Gigabit (G) Ethernet, con 1.6 Terabit (T) en el horizonte, mientras que las velocidades de switch a servidor son principalmente de 400G a través de protocolos Ethernet o InfiniBand™.
Para garantizar una conectividad fluida para las cargas de trabajo de propósito general y la transferencia de datos hacia y desde la red de back-end, el front-end está migrando rápidamente a enlaces de switch a switch de 200/400G Ethernet y a enlaces de switch a servidor de 25/50/100G. Una red de front-end de alto rendimiento es esencial para acelerar las solicitudes de inferencia de IA de usuarios y dispositivos, lo que se traduce en una mejor experiencia general.
lea mas en: