May 11 2023
57 lecturas

Ciencia y Tecnología

El sucio secreto de la inteligencia artificial

Acciones ya cotidianas como consultar la mejor ruta para ir a alg√ļn sitio o traducir un texto requieren grandes cantidades de recursos energ√©ticos, hidr√°ulicos y minerales. Esas aplicaciones funcionan en la nube, un eufemismo para designar millones de potentes ordenadores organizados en extensos centros de datos. Para que las aplicaciones del m√≥vil funcionen hacen falta legiones de computadoras que almacenen billones de datos y hagan operaciones en fracciones de segundo (por ejemplo, el c√°lculo de distancias teniendo en cuenta el tr√°fico). Se estima que el consumo energ√©tico de los centros de datos supone entre el 1% y el 2% del total mundial. Pero todo apunta a que estas cifras se van a disparar.

Un centro de datos de Google en The Dalles, Oregon (EU)

La inteligencia artificial (IA) generativa, la que hace posible los¬†chatbots¬†inteligentes como ChatGPT, as√≠ como las herramientas que generan ilustraciones originales o m√ļsica a partir de texto, necesita mucho poder de computaci√≥n.¬†Las grandes tecnol√≥gicas, con Microsoft y Google a la cabeza, han decidido integrar estas funcionalidades¬†en los buscadores, en los editores de texto o en el email. Nuestra relaci√≥n con los programas de uso habitual va a cambiar: hasta ahora, apret√°bamos una serie de comandos para llevar a cabo ciertas actividades; dentro de poco nos encontraremos conversando con la m√°quina, pidi√©ndole tareas que antes hac√≠amos nosotros.

¬ŅQu√© efecto tendr√° en el medio ambiente este cambio de paradigma? Nadie lo sabe, pero todas las estimaciones son al alza. ‚ÄúLa IA puede parecer et√©rea, pero est√° moldeando f√≠sicamente el mundo‚ÄĚ, sentencia Kate Crawford en¬†Atlas of AI. La australiana, investigadora principal de Microsoft Research y directora del AI Now Institute, alert√≥ hace dos a√Īos de que los ‚Äúcostes planetarios‚ÄĚ asociados a esta tecnolog√≠a no paran de crecer. Algunos cient√≠ficos calculaban hace cuatro a√Īos que el sector tecnol√≥gico supondr√≠a el 14% de las emisiones mundiales para 2040; otros, que la demanda energ√©tica de los centros de datos se multiplicar√° por 15 hasta 2030.

Todas esas previsiones pueden quedarse cortas. Son de antes de la irrupci√≥n de ChatGPT. Google y Microsoft acumulan centenares de millones de usuarios. ¬ŅQu√© pasa si todos ellos empiezan a usar herramientas apoyadas en IA generativa? El canadiense Martin Bouchard, cofundador de los centros de datos Qscale, cree que¬†se necesitar√≠a al menos cuatro o cinco veces m√°s potencia computacional¬†por cada b√ļsqueda. Preguntados por sus niveles de consumo actuales y por sus previsiones de crecimiento en la era de la IA generativa, Google y Microsoft han preferido no aportar a este peri√≥dico datos concretos, m√°s all√° de reiterar su intenci√≥n de alcanzar la neutralidad de carbono para 2030. Para Crawford, eso ‚Äúsignifica que compensan sus emisiones comprando el cr√©dito de la gente‚ÄĚ a trav√©s de acciones de maquillaje medioambiental, como plantar √°rboles u otras acciones similares.

.

Uno de los pasillos del centro de datos que Google tiene en Douglas, Georgia (EU)

Uno de los pasillos del centro de datos que Google tiene en Douglas, Georgia (EU).‚ÄúLa IA generativa produce m√°s emisiones que un buscador corriente, que tambi√©n consume mucha energ√≠a porque al fin y al cabo son sistemas complejos que bucean en millones de p√°ginas web‚ÄĚ, indica Carlos G√≥mez Rodr√≠guez, catedr√°tico de Computaci√≥n e Inteligencia Artificial de la Universidad de La Coru√Īa. ‚ÄúPero la IA genera todav√≠a m√°s emisiones que los buscadores, porque usa unas arquitecturas basadas en redes neuronales, con millones de par√°metros que hay que entrenar‚ÄĚ.

¬ŅCu√°nto contamina la IA?

Hace un par de a√Īos que la huella de carbono de la industria inform√°tica alcanz√≥ a la de la aviaci√≥n cuando estaba en su m√°ximo. Entrenar un modelo de procesamiento natural del lenguaje equivale a tantas emisiones como las que expulsar√°n cinco coches de gasolina durante toda su vida, incluyendo el proceso de fabricaci√≥n, o 125 vuelos de ida y vuelta entre Pek√≠n y Nueva York. M√°s all√° de las emisiones, el consumo de recursos h√≠dricos para la refrigeraci√≥n de los sistemas (Google gast√≥ 15.800 millones de litros en 2021, seg√ļn¬†un estudio de¬†Nature,¬†mientras que Microsoft declar√≥ 3.600 millones de litros), as√≠ como la dependencia de metales raros para elaborar los componentes electr√≥nicos, hacen de la IA una tecnolog√≠a con grandes repercusiones en el medio ambiente.

Entrenar un modelo de procesamiento natural del lenguaje equivale a tantas emisiones como las que expulsar√°n cinco coches de gasolina durante toda su vida

No existen datos sobre cu√°nta energ√≠a y de qu√© tipo consumen las grandes tecnol√≥gicas, las √ļnicas con una infraestructura lo suficientemente robusta como para entrenar y alimentar los grandes modelos de lenguaje en los que se apoya la IA generativa. Tampoco hay cifras concretas de la cantidad de agua que gastan para refrigerar los sistemas, cuesti√≥n que ya est√° provocando tensiones en pa√≠ses como EU, Alemania u Holanda. Las empresas no est√°n obligadas a facilitar esa informaci√≥n. ‚ÄúLo que tenemos son estimaciones. Por ejemplo, entrenar GPT3, el modelo en el que se basa ChatGPT, habr√≠a generado unas 500 toneladas de carbono, el equivalente a ir y volver a la Luna en coche. Tal vez no es mucho, pero hay que tener en cuenta que el modelo se tiene que reentrenar peri√≥dicamente para incorporar datos actualizados‚ÄĚ, sostiene G√≥mez. OpenAI acaba de presentar otro modelo m√°s avanzado, GPT4. Y la carrera seguir√°.

Otra estimaci√≥n dice que el uso que se hab√≠a hecho de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, podr√≠a equivaler al uso anual de unas 175.000 familias danesas, que no son las que m√°s gastan. ‚ÄúEsto son proyecciones con las cifras actuales de ChatGPT; si se generaliza todav√≠a m√°s su uso, podr√≠amos estar hablando de un consumo equivalente de electricidad de millones de personas‚ÄĚ, a√Īade el catedr√°tico.

Vista aérea del centro de datos de Google de Saint-Ghislain, en Bélgica.

La opacidad de datos empezar√° a disiparse pr√≥ximamente. La Ue (Uni√≥n Europea) est√° consciente del creciente consumo energ√©tico de los centros de datos. Bruselas tiene en marcha una directiva que se empezar√° a discutir el a√Īo que viene (y, por tanto, tardar√≠a al menos dos a√Īos en entrar en vigor) que fija exigencias de eficiencia y transparencia energ√©tica. EU trabaja en una normativa similar.

El costoso entrenamiento de los algoritmos

‚ÄúLas emisiones de carbono de la IA se pueden descomponer en tres factores: la potencia del hardware que se utiliza, la intensidad de carbono de la fuente de energ√≠a que lo alimenta y la energ√≠a que se usa en el tiempo que dura el entrenamiento del modelo‚ÄĚ, explica √Ālex Hern√°ndez, investigador posdoctoral en el Instituto de Inteligencia Artificial de Quebec (MILA).

Es en el entrenamiento donde se concentran la mayor parte de las emisiones. Ese entrenamiento es un proceso clave en el desarrollo de los modelos de aprendizaje autom√°tico, la modalidad de IA que m√°s r√°pido ha crecido en los √ļltimos a√Īos. Consiste en mostrarle al algoritmo millones de ejemplos que le ayuden a establecer patrones que le permitan predecir situaciones. En el caso de los modelos de lenguaje, por ejemplo, se trata de que cuando vea las palabras ‚Äúla Tierra es‚ÄĚ sepa que tiene que decir ‚Äúredonda‚ÄĚ. El uso de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, equivale al uso anual de unas 175.000 familias danesas

La mayor√≠a de los centros de datos utilizan unos procesadores avanzados llamados GPU para realizar el entrenamiento de los modelos de IA. Los GPU necesitan much√≠sima energ√≠a para funcionar. El entrenamiento de los grandes modelos de lenguaje requiere de decenas de miles de GPU, que necesitan operar d√≠a y noche durante semanas o meses, seg√ļn detalla un reciente informe de Morgan Stanley.

‚ÄúLos grandes modelos de lenguaje tienen una arquitectura muy grande. Un algoritmo de aprendizaje autom√°tico que te ayude a elegir a qui√©n contratar quiz√°s necesite 50 variables: d√≥nde trabaja, qu√© salario tiene ahora, experiencia previa, etc√©tera. GhatGPT tiene m√°s de 175.000 millones de par√°metros‚ÄĚ, ilustra Ana Valdivia, investigadora postdoctoral en computaci√≥n e IA en King‚Äôs College London. ‚ÄúHay que reentrenar toda esa especie de estructura, y adem√°s alojar y explotar los datos sobre los que se trabaja. Ese almacenaje tambi√©n tiene un consumo‚ÄĚ, a√Īade.

ChatGPT: qu√© es, c√≥mo utilizarlo gratis y qu√© puedes hacer ahora que incluye GPT-4Hern√°ndez, del MILA,¬†acaba de presentar un art√≠culo¬†en el que analiza el consumo energ√©tico de 95 modelos. ‚ÄúHay poca variabilidad del hardware usado, pero si entrenas tu modelo en Quebec, donde la mayor√≠a de la electricidad es hidroel√©ctrica, reduces en un factor de 100 o m√°s las emisiones de carbono respecto a lugares donde predomina el carb√≥n, el gas u otros‚ÄĚ, subraya el investigador. Se sabe que los centros de datos chinos se alimentan en un 73% de electricidad generada con carb√≥n, lo que supuso la emisi√≥n de al menos 100 millones de toneladas de CO‚āā en 2018.

Dirigido por Yoshua Bengio, cuya aportación en las redes neuronales profundas le valió el premio Turing (considerado el Nobel de la informática), el MILA ha desarrollado una herramienta, Code Carbon, capaz de medir la huella de carbono de quienes programan y entrenan algoritmos. El objetivo es que los profesionales la integren en su código para saber cuánto emiten y que eso les ayude a tomar decisiones.

M√°s capacidad computacional

Existe el problema a√Īadido de que la capacidad de computaci√≥n necesaria para entrenar los mayores modelos de IA se duplica cada tres o cuatro meses. As√≠ lo revel√≥ ya en 2018 un estudio de OpenAI, que tambi√©n avisaba de que ‚Äúmerece la pena prepararse para cuando los sistemas necesiten unas capacidades mucho mayores a las actuales‚ÄĚ. Es una velocidad muy superior a la que marcaba la Ley de Moore, seg√ļn la cual el n√ļmero de transistores (o potencia) de los microprocesadores se duplica cada dos a√Īos.

‚ÄúTeniendo en cuenta los modelos que se est√°n entrenando en la actualidad, s√≠ que hace falta m√°s capacidad computacional para garantizar su funcionamiento. Seguramente, las grandes tecnol√≥gicas ya est√°n comprando m√°s servidores‚ÄĚ, augura G√≥mez.

Para Hern√°ndez, las emisiones derivadas del uso de la IA es menos preocupante por varios motivos. ‚ÄúHay mucha investigaci√≥n dirigida a reducir el n√ļmero de par√°metros y complejidad de la energ√≠a que necesitan los modelos, y eso mejorar√°. Sin embargo, no hay tantas formas de reducirlas en el entrenamiento: ah√≠ hace falta semanas de uso intensivo. Lo primero es relativamente sencillo de optimizar; lo segundo, no tanto‚ÄĚ.

Una de las posibles soluciones para que los entrenamientos sean menos contaminantes ser√≠a reducir la complejidad de los algoritmos sin perder eficacia. ‚Äú¬ŅRealmente hacen falta tantos millones de par√°metros para lograr modelos que funcionen bien? GhatGPT, por ejemplo, ha demostrado tener muchos sesgos. Se est√° investigando la forma de lograr los mismos resultados con arquitecturas m√°s simples‚ÄĚ, reflexiona Valdivia.

*Redactor de la sección de Tecnología de El País. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Trabajó en Cinco Días y Retina.

  • Compartir:
X

Envíe a un amigo

No se guarda ninguna información personal


A√Īadir comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.