Imagen principal del artículo: Impulsando la inteligencia: cómo el entrenamiento y la inferencia de IA están transformando las demandas de los centros de datos

Impulsando la inteligencia: cómo el entrenamiento y la inferencia de IA están transformando las demandas de los centros de datos

En colaboración con:
Colaboración con agencia

La Inteligencia Artificial (IA) generativa está poniendo a prueba la infraestructura tradicional de los centros de datos. Para responder bien, primero hay que distinguir el tipo de carga: no es lo mismo entrenar modelos que ejecutar inferencia. Esa diferencia define en qué modernizaciones conviene invertir, desde energía y enfriamiento hasta la manera de operar y escalar.

El entrenamiento es la etapa en la que se construye el modelo y, por naturaleza, concentra la mayor exigencia técnica. Requiere clústeres con procesadores gráficos (Graphics Processing Unit o GPU) y densidades que con frecuencia superan los 100 kW por rack, por lo que la gestión térmica avanzada deja de ser opcional. En este contexto, soluciones como el enfriamiento líquido directo al chip o los intercambiadores de calor en puertas traseras resultan clave, al igual que arquitecturas eléctricas modulares, con redundancia y capacidad de crecer al ritmo de los aceleradores, cuyo consumo y potencia térmica de diseño (Thermal Design Power o TDP) tienden a aumentar generación tras generación.

La inferencia es la etapa en la que el modelo ya entrenado se pone a trabajar y genera resultados con datos nuevos. Va desde interacciones sencillas hasta análisis en tiempo real en salud, comercio y operaciones industriales. Aunque por servidor suele demandar menos que el entrenamiento, hoy crece en complejidad y escala, y por eso eleva la densidad en más lugares. Puede verse en despliegues por debajo de 40 kW por rack, pero también en rangos de 40 a 80 kW en casos avanzados, sobre todo cuando se requieren tiempos de respuesta muy bajos. Además, es ahí donde se materializa el retorno de la IA, por lo que optimizar la inferencia pasa a ser una prioridad.

La pregunta relevante entonces no es solo cuánta potencia se necesita, sino dónde ocurre esa inferencia y por qué importa. A diferencia del entrenamiento, que tiende a concentrarse en grandes instalaciones hiperescalables, la inferencia se distribuye entre la nube pública, centros de datos de terceros (colocation), entornos en las propias instalaciones (on-premise) y el borde (edge), cerca de donde se generan los datos. Hacia el final de la década, convivirán centros con densidades moderadas enfocadas en inferencia y otros de ultra alta densidad orientados a entrenamiento, lo que aumenta la diversidad de diseños.

En nube pública, la inferencia domina por flexibilidad y rapidez para escalar. Esto implica usar aceleradores y redes de alto rendimiento, además de una operación energéticamente eficiente que sostenga costos y metas de sostenibilidad a medida que crecen el volumen y la complejidad. En colocation y on-premise, muchas organizaciones buscan mayor control por costos, latencia o soberanía de datos, algo especialmente relevante en sectores regulados. En estos entornos, la escalabilidad es clave, porque racks que hoy operan a 20kW pueden necesitar duplicar su densidad en poco tiempo, y la distribución eléctrica, el respaldo y el enfriamiento deben crecer con la demanda sin obligar a rediseñar todo desde cero.

Esa distribución obliga a diseñar para distintos niveles de densidad y operación, sin perder eficiencia ni resiliencia. Para entrenamiento de ultra alta densidad, hay que planificar por encima de 100kW por rack, incorporar enfriamiento líquido y contar con una arquitectura eléctrica modular y escalable que acompañe el aumento de la potencia térmica de los aceleradores. Para inferencia, lo clave es partir de al menos 40kW por rack con margen de crecimiento, usar contención de pasillos cuando sea suficiente y definir una ruta clara para migrar a enfriamiento líquido, apoyada en distribución de energía inteligente y monitoreo más detallado. También ayuda incorporar distribución de energía con medición y control más finos, para ajustar capacidad conforme cambian las cargas.

En paralelo, el software se vuelve clave para operar con seguridad y eficiencia. Combinar equipos de alta potencia con enfriamiento líquido y tecnología tradicional exige visibilidad en tiempo real, planeación de capacidad y automatización para reducir riesgos y sostener la disponibilidad. Herramientas de gestión de infraestructura (Data Center Infrastructure Management o DCIM), monitoreo eléctrico (Electrical Power Monitoring System o EPMS) y administración de edificios (Building Management System o BMS) ayudan a coordinar energía, enfriamiento y operación, especialmente en entornos híbridos con cargas mixtas. En la práctica, esta visibilidad se convierte en una primera línea de defensa para anticipar riesgos y sostener la continuidad.

Mirando hacia adelante, la inferencia será cada vez más común y más exigente. Los modelos serán más complejos y multimodales, crecerá la necesidad de procesar cerca de donde se generan los datos y se expandirá la IA como servicio. El resultado será una mayor variedad de configuraciones, desde sitios de baja carga en el borde hasta racks densos capaces de ejecutar inferencia y entrenamiento en paralelo, con una presión creciente por eficiencia energética.

No existe una receta única. El tipo de carga, las necesidades de los aceleradores y el tamaño del conjunto determinan la densidad y, con ella, los requerimientos de infraestructura. Aun así, la dirección es clara: entender las demandas específicas del entrenamiento y la inferencia, y construir una base de energía, enfriamiento y gestión que pueda evolucionar con ambas, será el diferencial para competir en la nueva era de la IA. 

Artículo de opinión escrito por José Alberto Llavot, gerente de Preventa y Desarrollador de Negocios en Schneider Electric para México y Centroamérica.