ChatGPT take in mucha más electricidad que el hogar promedio de EE. UU.
LIONEL BUENAVENTURA

  • ChatGPT utiliza más de medio millón de kilovatios-hora de electricidad al día, informó The New Yorker.
  • En comparación, el hogar estadounidense promedio utiliza sólo 29 kilovatios-hora.
  • Es difícil estimar cuánta electricidad take in la floreciente industria de la IA.

La IA está consumiendo una tonelada de electricidad.

El bullicioso chatbot de OpenAI, ChatGPT, probablemente sea utilizando más de medio millón de kilovatios-hora de electricidad para responder a unos 200 millones de solicitudes al día, según The New Yorker.

La publicación informó que el hogar estadounidense promedio utiliza alrededor de 29 kilovatios-hora al día. Dividiendo la cantidad de electricidad que ChatGPT united states of america por día por la cantidad usada por el hogar promedio muestra que ChatGPT united states of america más de 17 mil veces la cantidad de electricidad.

Eso es mucho. Y si la IA generativa va más allá adoptado, podría drenar mucho más.

Por ejemplo, si Google integrara la tecnología de inteligencia synthetic generativa en cada búsqueda, consumiría alrededor de 29 mil millones de kilovatios-hora al año, según cálculos realizados por Alex de Vries, científico de datos del Banco Nacional Holandés, en un artículo para la revista de energía sostenible. diario Joule. Eso es más electricidad de la que consumen países como Kenia, Guatemala y Croacia en un año, según The New Yorker.

«La IA take in mucha energía», dijo de Vries a Organization Insider. «Cada uno de estos servidores de IA ya puede consumir tanta energía como más de una docena de hogares del Reino Unido juntos. Así que las cifras se acumulan muy rápidamente».

Aun así, es difícil estimar cuánta electricidad take in la floreciente industria de la IA. Existe una variabilidad considerable en la forma en que operan los grandes modelos de IA, y las grandes empresas tecnológicas, que han estado impulsando el auge, no lo han hecho. exactamente comunicativo sobre su uso de energía, según The Verge.

En su artículo, sin embargo, A De Vries se le ocurrió un cálculo aproximado basado en las cifras publicadas por Nvidia, que algunos han denominado «el Cisco» del auge de la IA. Según cifras de New Street Investigation informadas por CNBC, el fabricante de chips tiene alrededor del 95% de la cuota de mercado de procesadores gráficos.

De Vries estimó en el documento que para 2027, todo el sector de la IA consumirá entre 85 y 134 teravatios-hora (mil millones de veces un kilovatio-hora) al año.

«Estamos hablando de que el consumo de electricidad de la IA representará potencialmente el medio por ciento del consumo mundial de electricidad para 2027», dijo de Vries a The Verge. «Creo que es un número bastante significativo».

Algunas de las empresas que más electricidad utilizan en el mundo palidecen en comparación. Samsung united states of america cerca de 23 teravatios-hora, mientras que los gigantes tecnológicos como Google usan un poco más de 12 teravatios-hora y Microsoft usa un poco más de 10 teravatios-hora para ejecutar centros de datos, redes y dispositivos de usuario, según los cálculos de BI. Basado en un informe de Purchaser Electricity Methods.

OpenAI no respondió de inmediato a una solicitud de comentarios de BI.

El 28 de febrero, Axel Springer, la empresa matriz de Business enterprise Insider, se unió a otros 31 grupos de medios y presentó una demanda por 2.300 millones de dólares contra Google en un tribunal holandés, alegando pérdidas sufridas debido a las prácticas publicitarias de la empresa.

Axel Springer, la empresa matriz de Company Insider, tiene un acuerdo world-wide para permitir a OpenAI entrenar sus modelos en los informes de sus marcas de medios.

Share.
Leave A Reply