Ir al contenido

Guía de Aplicaciones y Arquitectura de Networking de DataCenter AI

#Siemon

Satisfaciendo las Demandas de la IA y las Cargas de Trabajo Modernas

Para soportar cargas de trabajo de computación de alto rendimiento (HPC) como el entrenamiento de IA/ML (inteligencia artificial/aprendizaje automático), las redes de back-end despliegan una arquitectura spine-leaf (espina y hoja), donde los leaf switches  se conectan a cada spine switch . Dentro de los pods (clústeres) de IA, que están diseñados específicamente para realizar tareas concretas, los leaf switches  proporcionan interconexiones de alto ancho de banda y baja latencia entre las GPU.

Los switches sipine-leaf  se conectan típicamente a 800 Gigabit (G) Ethernet, con 1.6 Terabit (T) en el horizonte, mientras que las velocidades de switch a servidor son principalmente de 400G a través de protocolos Ethernet o InfiniBand™.

Para garantizar una conectividad fluida para las cargas de trabajo de propósito general y la transferencia de datos hacia y desde la red de back-end, el front-end está migrando rápidamente a enlaces de switch  a switch de 200/400G Ethernet y a enlaces de switch a servidor de 25/50/100G. Una red de front-end de alto rendimiento es esencial para acelerar las solicitudes de inferencia de IA de usuarios y dispositivos, lo que se traduce en una mejor experiencia general.

lea mas en: 

 Guia IA DataCenters Siemon

Guía de Aplicaciones y Arquitectura de Networking de DataCenter AI
Karina Romera Scott 7 de agosto de 2025
Compartir
Etiquetas
Archivo
5G vs 6G: ¿Cuales son las diferencias principales?
Aprenda mas acerca de 5G y 6G y encuentre las respuesas a las preguntas mas comunes