Ðвгений ÐеÑÑинин

El enfriamiento líquido refresca la demanda energética de la IA

Conozca las ventajas del enfriamiento líquido para los aceleradores de próxima generación, y cómo pueden mejorar su eficiencia, sostenibilidad y densidad en los centros de datos de IA.

La IA es una de las cargas de trabajo con mayores demandas de computación de nuestros tiempos. Por eso, no sorprende que el consumo energético y el costo de energía asociado de los sistemas de IA se esté elevando. A principios de este año, la Agencia Internacional de Energía (IEA, por sus siglas en inglés) informó que los centros de datos consumieron, a nivel global, el 2 % de toda la electricidad en 2022, y predice que ese consumo podría aumentar a más del doble en 2026.

Mientras que la eficiencia ha mejorado en los aceleradores de próxima generación, el consumo energético continuará intensificándose con la adopción de la IA. Los centros de datos deberán ejecutar cargas de trabajo de IA de manera más efectiva, y las instalaciones actuales no están equipadas para atender las demandas de enfriamiento de este creciente poder de procesamiento. Aquí es donde entra el enfriamiento líquido.

Mantenerse fresco en la era de la IA

En comparación con el enfriamiento por aire tradicional que utiliza ventiladores, con el enfriamiento líquido y, específicamente, con el enfriamiento líquido directo (DLC, siglas en inglés de Direct Liquid Cooling), el refrigerante o cooler se bombea directamente a un servidor para absorber el calor emitido por los procesadores y transferirlo a un sistema de intercambio de calor, fuera del centro de datos.

La infraestructura de IA del futuro con los aceleradores más recientes requerirá innovación en enfriamiento líquido para atender las inquietudes sobre la eficiencia energética, la sostenibilidad e incluso la resiliencia de los sistemas, que es central para mantener operando las cargas de trabajo de IA.

Veamos las cuatro principales razones por las cuales el enfriamiento líquido es la solución ideal para los centros de datos de IA.

1. Algunos chips simplemente no toleran el calor

Nuestros amigos de la industria han hecho un trabajo asombroso al diseñar aceleradores de próxima generación que proporcionan un rendimiento considerablemente más alto para la IA con mayor eficiencia. Los nuevos chips están diseñados para ofrecer aún más rendimiento en un espacio reducido, pero eso también significa que será más difícil enfriar todos esos componentes críticos por dentro.

Si no podemos enfriar los chips lo suficientemente rápido, los centros de datos podrían enfrentar problemas de sobrecalentamiento que causarían fallas en el sistema y, en última instancia, tiempos de inactividad imprevistos en las tareas de IA en ejecución.

El enfriamiento líquido puede enfriar esos chips de forma más rápida y eficiente, ya que el agua contiene el triple de capacidad de calor que el enfriamiento por aire, lo que le permite absorber más calor emitido por los aceleradores y otros componentes como las CPU, la memoria y los switches de red.

2. Obtener el valor de la IA con menos impacto ambiental

Enfriar de manera eficiente los aceleradores de próxima generación para garantizar la fiabilidad de los sistemas es una prioridad clave, pero es igual de importante hacerlo de manera más sostenible en beneficio de la madre naturaleza. El enfriamiento líquido cuenta con ventajas importantes de sostenibilidad y costo para los aceleradores de próxima generación.

Tomemos como ejemplo un centro de datos HPC con 10 mil servidores. Si los 10 mil servidores se enfrían por aire, el centro de datos emitirá más de 8.700 toneladas de CO2, en comparación con los servidores enfriados por líquido, que emiten alrededor de 1.200 toneladas de CO2. Esto representa una reducción del 87 % en el consumo de energía y evita que casi 17,8 millones de libras (más de 8 millones de Kg) de CO2 se liberen anualmente a la atmósfera.

Sin duda, esta enorme reducción de consumo energético viene acompañada de un gran ahorro de costos. Cualquier director financiero que supervise los gastos energéticos lo apreciará. Con un centro de datos de 10 mil servidores enfriados por líquido, el centro solo pagará USD $45,99 por servidor anualmente, en comparación con el costo anual de USD $254,70 por cada servidor enfriado por aire. Esto ahorra casi USD $2,1 millones al año en costos operativos.

3. Reutilizar la energía de los sistemas de IA

Después de capturar el calor, los sistemas con enfriamiento líquido lo transfieren a un sistema de intercambio fuera del centro de datos, donde el agua caliente puede reutilizarse como fuente de energía para alimentar otros edificios o instalaciones. El Laboratorio Nacional de Energía Renovable (NREL, por sus siglas en inglés) del Departamento de Energía de los Estados Unidos lo ha estado haciendo con éxito durante años. El laboratorio, uno de los centros de energía renovable líderes del mundo, reutilizó el 90 % del agua caliente capturada de su sistema Peregrine, una supercomputadora de enfriamiento líquido HPE Cray, como la principal fuente de calor para las oficinas y el espacio de laboratorio de su planta de integración de sistemas de energía (ESIF, por sus siglas en inglés).

QScale, en Quebec, está planeando hacer lo mismo, pero con el objetivo de ayudar a incrementar la producción agrícola y abordar la escasez de alimentos. Con el enfriamiento líquido, QScale espera proporcionar electricidad a los invernaderos locales, que tienen casi el tamaño de unos 100 campos de fútbol americano, para producir el equivalente a 80 mil toneladas de tomates al año.

De manera similar, la empresa noruega Green Mountain planea ofrecer agua caliente para apoyar los esfuerzos de acuicultura en Hima, el criadero de truchas en tierra más grande del mundo, el cual está basado en sistemas de recirculación acuícola (RAS, por sus siglas en inglés), una tecnología que recircula el agua de montaña limpia y pura. Hima pretende producir cerca de 8.000 toneladas de truchas Hima premium, el equivalente a 22 millones cenas al año.

4. Más rendimiento de IA con sistemas más pequeños

A medida que los centros de datos planean y se preparan para adoptar infraestructuras de IA en el futuro, la densidad será un factor clave para hacer espacio para las soluciones de IA avanzadas. Debido a que el enfriamiento líquido no necesita ventiladores ni todo el equipo necesario para las soluciones de enfriamiento por aire, los centros de datos pueden colocar menos racks de servidores de manera más compacta, para maximizar el espacio o expandirse conforme sea necesario.

De acuerdo con el ejemplo del centro de datos con 10 mil servidores, una instalación reduciría el 77,5 % del espacio necesario si utilizara servidores con enfriamiento líquido.

Además, en un período de cinco años, las soluciones de enfriamiento líquido consumen un 14,9 % menos de energía para el chasis, lo que brinda un 20,7 % de más rendimiento por kW que las soluciones con enfriamiento por aire.

Al tratarse de la IA, conviene confiar en los expertos que le ayuden a implementar, desarrollar, operar y mantener con eficiencia sistemas con grandes demandas de computación.

Jason Zeiler es gerente de productos de enfriamiento líquido en HPE. Cuenta con amplia experiencia en gestión de productos, estrategia de marketing y manejo de equipos de alto perfil sobre refrigeración líquida e infraestructura de próxima generación. Anteriormente, trabajó en CoolIT Systems, Envio Systems y EZ-Robot, entre otras. Es administrador de empresas por la Mount Royal University, con un MBA por la Haskayne School of Business.

Investigue más sobre Arquitectura de centros de datos

ComputerWeekly.com.br
Close