
Con la innovación viene el impacto. La revolución de las redes sociales cambió la forma en que compartimos el contenido, cómo compramos, vendemos y aprendemos, pero incluso planteamos preguntas sobre el mal uso de la tecnología, la censura y la protección. Cada vez que damos un paso delante, incluso necesitamos tocar los desafíos, y la IA no es diferente.
Uno de los principales desafíos para la IA es su consumo de energía. Juntos, los centros de datos y la IA actualmente usan entre el 1-2% de la electricidad del mundo, pero esta sigla está aumentando rápidamente.
Para complicar las cosas, estas estimaciones cambian a medida que evolucionan nuestras tecnologías de IA y patrones de uso. En 2022, los centros de datos, incluidas las plataformas de IA y las criptomonedas, utilizaron más o menos de 460 TWH de potencia. A principios de 2024, se proyectó que podían usar hasta un 900 TWH adicional para 2030. A principios de 2025, esta sigla se revisó radicalmente alrededor de debajo a aproximadamente 500 TWH, en gran parte conveniente a modelos de IA más eficientes y tecnologías de datos de datos. Encima, para poner esto en contexto, la demanda de la industria de los vehículos eléctricos probablemente alcanzará 854tWh para 2030, con calefacción franquista e industrial en más o menos de 486tWh.
Sin requisa, este crecimiento sigue siendo significativo, y todos, los proveedores y usuarios por igual, tienen el deber de cerciorarse de que su uso de herramientas de IA sea lo más apto posible.
Director de Medio Bullicio Mundial, Ovhcloud.
¿Cómo se está volviendo más apto la infraestructura de IA?
Ya sea que sea la ley de Moore que nos dice que veremos más transistores en el mismo chip, o la ley de Koomey nos dice que veremos más cálculos por Joule de energía utilizada, la informática siempre se ha vuelto más apto con el tiempo y las GPU, los “motores” de IA, sin duda seguirán esa tendencia.
Cuando miramos alrededor de detrás entre 2010 y 2018, la cantidad de cuenta de centro de datos que se realizó aumentó en un 550%, pero el uso de energía aumentó en solo un 6%. Ya estamos viendo este tipo de perfeccionamiento en las cargas de trabajo de IA, y tenemos muchas razones para ser un poco más optimistas sobre el futuro.
Además estamos viendo un aumento en la admisión de tecnologías de refrigeramiento de líquidos. Según los mercados y los mercados, el mercado para el refrigeramiento de líquidos en los centros de datos crecerá casi diez veces en los próximos siete abriles. El agua tiene una conductividad térmica mucho viejo que el música, lo que hace que las técnicas de refrigeramiento de líquidos sean más eficientes (y, por lo tanto, más baratos) que el refrigeramiento por música. Esto es ideal para cargas de trabajo de IA, que tienden a consumir más potencia y ejecutarse más caliente que las cargas de trabajo que no son AI. El refrigeramiento del agua aumenta drásticamente la efectividad del uso de potencia de los centros de datos.
Encima, incluso vemos una innovación significativa en el campo de refrigeramiento acuosidad en sí. Históricamente, los centros de datos han utilizado el refrigeramiento directo de acuosidad a chip (DLTC) donde las placas de refrigeramiento se encuentran en CPU o GPU. A medida que aumentan las cargas de potencia (y, en consecuencia, el calor), estamos viendo más refrigeramiento de inmersión, donde todo el servidor está sumergido en un acuosidad no conductivo y todos los componentes se pueden refrigerar simultáneamente.
Este formato incluso se puede combinar con el refrigeramiento DLTC, asegurando que los componentes del servidor que generalmente se “ejecutan en caliente” (como la CPU y la GPU) reciban una viejo potencia de refrigeramiento, mientras que el resto del servidor está enfriado por el fluido circundante.
¿Cómo podemos hacer que la IA sea más apto en los fortuna?
Pegado con el poder, generalmente consideramos el agua como un apelación por derecho propio. Considere una búsqueda habitual de Internet. Una búsqueda con IA usa más o menos de 25 ml de agua, donde una búsqueda sin potencia de AI usará 50 veces menos: medio mililitro. A escalera industrial, un caso de prueba fresco administrado por el Laboratorio Franquista de Energía Renovable encontró que el refrigeramiento inteligente de agua redujo el consumo de agua en más o menos del 56%; En su caso, más de un millón de litros de agua al año.
Además es importante pensar en los minerales que usa nuestra infraestructura, porque estos no existen de forma aislada. La reutilización de los componentes siempre que sea posible, o reciclarlos cuando no lo sea, puede ser una forma enormemente apto de evitar compras innecesarias y dominar el impacto ambiental de la IA.
Como ejemplo, considere el litio, un componente secreto en los automóviles eléctricos. El litio puede requerir hasta medio millón de litros de agua y gestar quince toneladas de CO2 para una tonelada de metal. Al mismo tiempo, hay un factor geopolítico en nuestro uso de fortuna: más o menos de un tercio de nuestro níquel, que se usa en disipadores de calor, solía provenir de Rusia.
En muchos casos, incluso es posible recuperar ciertos metales. Por ejemplo, utilizando la pirólisis, puede obtener cobre “irritado” de componentes complejos. Luego, a través de la electrólisis, separe los nociones para recuperar cobre puro, níquel, hierro, paladio, titanio, plata y oro, convirtiendo los desechos electrónicos en activos valiosos. Aunque esto no será un flujo de ingresos considerable, ¡es un válido ejemplo de que la sostenibilidad es un turbina de ingresos en superficie de un centro de costos!
¿Cómo pueden los usuarios hacer que sus procesos de IA sean más eficientes?
No es suficiente que los usuarios confíen en operadores de centros de datos y fabricantes de equipos para dominar el consumo de energía y las huellas de carbono. Todas las organizaciones deben tener en cuenta el consumo de energía y certificar que su negocio sea sostenible por diseño siempre que sea posible.
Para dar un ejemplo práctico, el entrenamiento del maniquí de IA rara vez es sensible a la latencia, porque generalmente no es un proceso orientado al legatario. Esto significa que se puede hacer en cualquier superficie y, como resultado, se debe hacer en lugares que tienen un viejo camino a la energía renovable. Una empresa que modela la capacitación en Canadá en superficie de en Polonia, por ejemplo, tendrá una huella de carbono aproximadamente un 85% más depreciación.
Al mismo tiempo, es importante ser pragmático sobre la infraestructura de IA. Según Intel PCF / OVHCloud LCA, un NVIDIA H100 tiene una huella de carbono de cuna a puerta (fabricación) aproximadamente tres veces viejo que un NVIDIA L4, lo que refuerza lo importante que es para las organizaciones comprender qué GPU necesitan para el trabajo.
En muchos casos, la última GPU será importante, en particular, cuando las organizaciones intentan aceptar las solicitudes al mercado rápidamente, pero en algunos, una GPU de beocio precisión y más sostenible hará el mismo trabajo al mismo tiempo.
AI Sostenibilidad: un entrenamiento de atención al detalle
En caudillo, no hay absolutamente ninguna duda de que nuestro consumo de poder y fortuna aumentará en el futuro; Ese es el precio del progreso. Lo que podemos hacer es asegurarnos de establecer un precedente para hacer que cada parte de nuestras cadenas y procesos de suministro de IA lo sea lo más apto posible desde el principio, de modo que los desarrollos futuros incluso incorporen esto en sus procedimientos operativos habitual.
Si podemos obtener ganancias fraccionales siempre que sea posible, se suman y se asegurarán de que las evacuación de hoy no comprometan el mundo del mañana.
Presentamos los mejores proveedores de computación en la nimbo.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la presente. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro





