El recién lanzado Open Sora 2 hace que el impacto ambiental de la IA sea imposible de ignorar

REDACCION USA TODAY ESPAÑOL
11 Lectura mínima

Recientemente, la conversión de su nuevo generador de video de video Sora 2 indica Udev en IA. Su capacidad para generar minutos de tomas hiperrealistas a partir de varias filas de texto es sorprendente y genera una preocupación inmediata por la verdad en la política y el periodismo.

Pero Sora 2 va cambiando poco a poco debido a sus enormes necesidades informáticas, como apunta el mismo comunicado de prensa de General AI: ¿Cuáles son sus verdaderos costes medioambientales? ¿La generación de vídeos los empeorará mucho?

El reciente inicio del proyecto Stargate (advirtiendo 500 mil millones de dólares entre Openai, Oracle, Softbank y MGX) para construir centros masivos de inteligencia artificial en los Estados Unidos subraya de qué se trata. A medida que las empresas se apresuran a ampliar las capacidades informáticas a esta escala, el uso de energía de la IA se detendrá.

El debate sobre el impacto medioambiental de la IA sigue siendo una de las políticas tecnológicas más sorprendentes. Dependiendo de lo que hayamos leído, ya es una crisis ecológica en la redacción o un error por redondeo en el uso global de la energía. A medida que avanza rápidamente en el vídeo, la claridad sobre su huella es más urgente que nunca.

Openai amplía las posibilidades de Sora 2. Dos narrativas competitivas

Desde una perspectiva, rápidamente se convierte en una gran presión para los sistemas mundiales de energía y agua.

Alek de Vries-Gao, un investigador que ha seguido durante mucho tiempo el uso eléctrico de la minería de Bitcoin, lo notó a mediados de 2025. año en que la IA estaba en camino de superarlo. Estimó que la IA ya había representado alrededor del 20 por ciento del consumo mundial de energía en datos; Es probable que esta cifra se duplique a finales de año.

Según la Agencia Internacional de Energía, los centros utilizaron el 1,5 por ciento del consumo mundial de electricidad el año pasado, y el consumo es cuatro veces más rápido que la demanda mundial general. El IE prevé que los centros de datos duplicarán con creces su uso de aquí a 2030, y aborda el principal programa de gestión del crecimiento.

La investigación citada opinión sobre CONGURS MY TECHNOLOGY del MIT se estima que el consumo de electricidad de la IA podría cruzar “toda la electricidad utilizada actualmente por los centros de datos estadounidenses”, suficiente para abastecer al 22 por ciento de los hogares estadounidenses cada año.

Cantidades ‘enormes’

También llama la atención el uso de la IA del agua. Los centros de datos dependen de agua ultralimpia para mantener los servidores frescos y sin impurezas. Los investigadores estimaron que el entrenamiento del GPT-3 requeriría 700.000 litros de agua dulce en las instalaciones estadounidenses de Microsoft. Anticipan que la demanda mundial de IA podría llegar a 2027. Años podría alcanzar entre cuatro y seis mil millones de metros cúbicos hasta 2027. Años.

La rotación de hardware añade más tensión. Estudio de 2023. Encontró que la producción de chips requiere “enormes cantidades” de agua ultrapura, procesos químicos energéticos y minerales raros y raros como el cobalto y el tantalio. Producción de unidades de procesamiento gráfico de primer nivel (motores que hacen funcionar AI Boom): la mayoría de los productos electrónicos de consumo generan una huella de carbono mucho mayor.

A LIRE AUSSI: La importancia de los minerales críticos no debería aprobar su eliminación a toda costa

La generación de imágenes utiliza una corriente de horneado de microondas durante cinco segundos, mientras que hacer un vídeo de cinco segundos ocupa lo mismo que un microondas en el tiempo.

El próximo salto del texto y la imagen al vídeo de alta resolución podría aumentar drásticamente la influencia de la IA. Las primeras pruebas confirman este descubrimiento de que el uso de esa energía es para los modelos de texto hasta que el video se cuadriplica cuando la duración del video se duplica.

Centro de datos de Google en Dalles, Oregón. – Una instalación puede tragar millones de galones de agua al día. (Foto AP / Andrew Selski) Caso a favor de la perspectiva

Otros consideran excesiva la alarma. Los analistas del Centro de Innovación para la Innovación de Datos, la Tecnología y la Política Think Thin sostienen que muchas estimaciones de la energía de la IA se utilizan en una extrapolación defectuosa. Cada año, el hardware de la GPU se vuelve más eficiente y una gran parte de la electricidad en los nuevos centros de datos proviene de fuentes renovables.

La valoración reciente pone la huella de AI en contexto. Para crear un chatbot típico de K&A se consumen alrededor de 2,9 vatios-hora (VH), aproximadamente 10 veces las búsquedas en Google. Google ha afirmado recientemente que el Géminis típico utiliza sólo 0,24 VH y 0,25 ml de agua más rápido, aunque expertos independientes señalan que estas cifras omiten la energía indirecta y el agua utilizadas en la producción de electricidad.

El contexto es crucial. Una hora para ver un vídeo de alta resolución en Netflix utiliza aproximadamente 100 veces más energía que generar una respuesta de texto. Y la consulta es pequeña y, sin embargo, la transferencia de datos ahora procesa miles de millones por día y hay consultas de video más exigentes en el horizonte.

Jevons Paradok

Ayuda a diferenciar el entrenamiento y el uso de la IA. Para entrenar modelos Frontier como GPT-4 o Claude Opus 3 se necesitan miles de chips gráficos buscando durante meses, consumiendo gigavatas de horas de energía.

El uso del modelo consume una pequeña cantidad de energía por demanda, pero ocurre miles de millones de veces al día. Al final, la energía de uso y probablemente supere el entrenamiento.

El costo menos visible puede provenir de la producción de hardware. Cada nueva generación de chips requiere nuevas líneas de producción, entradas de minerales pesados ​​y refrigeración avanzada. El economista italiano Marcello Rubert señala que “Cada ciclo de actualización reinicia el Reloj de Carbono”, a medida que las fábricas renovaban equipos altamente purificados desde cero.

Incluso si los modelos se vuelven más eficientes, la energía total sigue aumentando. En economía, esto se conoce como la paradoja de Jevons: en Gran Bretaña, en el siglo XIX, el consumo de carbón aumentaba a medida que disminuían los costos de extracción. Como señalaron los investigadores, debido a los costos de caída, los desarrolladores los alientan a encontrar nuevas formas de incorporar IA en cada producto. El resultado es más centros de datos, chips y uso total de recursos.

Imagen del cerebro usando un chip estético detrás de la pantalla que muestra el logotipo de Openai

El logotipo de Openai se muestra en un teléfono móvil en un monitor de computadora generado por el modelo Dall de Chatggpt, 8 de diciembre de 2023 (Foto AP / Michael Dvier) Problema con la escala

¿Es una amenaza ecológica o un riesgo gestionado? La verdad se encuentra en algún punto intermedio.

Se utiliza rápidamente una energía insignificante, pero los sistemas que habilitan y exageran los centros de datos, la producción constante de chips, las horas de refrigeración, remodelan los patrones globales de energía y agua.

Perspectivas de proyectos internacionales Proyectos de la Agencia Internacional de Energía que la demanda de energía de los centros de energía podría alcanzar los 1.400 teravat-hora-hora hasta 2030. Años. Es el equivalente a añadir varios países de tamaño mediano a la red mundial. La IA representará una cuarta parte de ese crecimiento.

La transparencia es de vital importancia

Circulan muchas cifras sobre el uso de energía de la IA como poco confiable porque las empresas de IA revelan muy poco. Datos limitados que permiten a menudo utilizar métricas o contabilidad inconsistentes que oscurecen las influencias reales.

Una mejora obvia sería indicar las reglas de divulgación: informes estandarizados, basados ​​en energía y leads utilizados para la formación y la gestión de modelos. La Ley de Inteligencia Artificial en Europa exige desarrolladores de un sistema de “alto impacto” para el cálculo de documentos y el uso de energía.

Medidas similares deberían conducir a otros lugares para nuevos centros de transmisión de datos, regiones favorables con abundante energía renovable y agua; esto podría alentar una mayor vida útil del hardware en lugar de una actualización anual de los chips.

Equilibrando creatividad y costos

La IA generativa puede ayudar a desbloquear una creatividad extraordinaria y proporcionar la utilidad adecuada. Pero cada imagen, pasaje o vídeo “gratuito” cuesta material y energía ocultos.

El reconocimiento de estos costos no significa que debamos detener las innovaciones. Esto significa que debemos exigir transparencia en cuanto al precio del medio ambiente y quién lo paga, para poder abordar los impactos ambientales de la IA.

Si bien Sora 2 comienza a satisfacer las redes sociales con videos visuales muy reales, la pregunta no consumirá más energía que Netflix, pero ¿podemos expandir nuestra infraestructura digital de manera lo suficientemente responsable para ambos?


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo