Hay buenas razones por las cuales mucha gente está preocupada porque diversas herramientas de inteligencia artificial sean ahora tan accesibles. Por ejemplo, el que sea posible que alguien clone tu voz y luego le de un mal uso…
Existe también un amplio debate orientado al tema de copyright… ¿es legal y legítimo que estas herramientas puedan imitar hasta cierto punto el estilo de artistas? Ya pueden ser usadas para que un tercero cree obras “en su nombre”.
Recientemente, las políticas de Meta se han estado renovando para que nuestras imágenes y videos puedan ser usados para entrenar modelos de la compañía que aún no sabemos exactamente cómo se van a usar (Y en latam, al día de hoy que grabo… no han publicado una manera de negarnos al uso gratuito de nuestros datos).
Y probablemente ya has escuchado que hay gente preocupada por la potencial pérdida de empleos. Por ejemplo, en este estudio se habla, sólo en Reino Unido, de casi 8 millones de empleos que podría desplazar esta tecnología eventualmente.
Y todos estos son ejemplos de puntos de preocupación válidos relativos a la inteligencia artificial pero hoy quiero hablarte de otros aspectos que me parecen IMPORTANTES y PREOCUPANTES y son menos conocidos.
Hola, soy. Cinthia Reyes y en este canal exploramos evidencia científica que nos permita responder preguntas cotidianas relacionadas con nuestra salud y bienestar.
En uno de los videos previos expliqué un poco las bases de cómo funcionan las herramientas de inteligencia artificial que generan imágenes y también cómo es que aparecieron los modelos de lenguaje natural como el ahora famoso Chat GPT.
Para resumir esto mucho, piensa en cómo aprendiste a jugar ajedrez o damas chinas… casi de seguro que alguien te contó las reglas básicas y las comenzaste a practicar… quizás sabes que existen hasta libros de estrategias y que los campeones mundiales suelen estudiar y practicarlas.
En contraste, los sistemas de inteligencia artificial como ChatGPT, en lugar de recibir un paquete de reglas del juego en cuestión, llámese lenguaje escrito o imágenes, lo que hacen es observar una cantidad inmensa de información para deducir patrones y reglas…
Eso significa que estos sistemas encuentran caminos que a veces nosotros no nos imaginamos…
Por eso es que AlphaZero en 2017 en menos de un día de entrenamiento podía derrotar a cualquier humano… y en 2018 ya había derrotado al que en ese momento era el sistema más poderoso de ajedrez: Stockfish.
Y precisamente el hecho de que los humanos NO le damos las reglas a estos sistemas, es lo que entiendo está detrás de este tipo de respuestas que un grupo de expertos dieron en una encuesta de Oxford respecto a si la inteligencia artificial podría tener un impacto taaan negativo que pudiera llegar a extinguirnos.
En esa misma encuesta se les hizo la pregunta específica de cuál es la probabilidad que consideran de que la humanidad se extinga por falta de capacidad para controlar la inteligencia artificial, aquí el resultado ahora fue más mesurado: 10%.
Imagina que se le pide a uno de estos sistemas empoderados resolver el cambio climático y la solución a la que llega es que la manera más efectiva de bajar inmediatamente las emisiones de carbono es deshaciéndose de una gran cantidad de humanos.
Ese es un escenario extremo, pero sin irnos tan lejos como que la inteligencia artificial CONCLUYA que los humanos le estorbamos al planeta… hay DOS grandes problemas que HOY los sistemas tipo Chat GPT tienen:
Un muy alto consumo energético y un muy alto consumo de agua.
Para tener algo de contexto, hay que ubicar que el procesamiento que se utiliza para centros de datos como los de Chat GPT utilizan hardware de tarjetas NVidia.
Antes de la existencia de este tipo de tarjetas, los cálculos se hacían en el CPU de la computadora de manera secuencial, una operación a la vez, una muy buena manera de explicar esto la demostraron los famosos mythbusters… las tarjetas de NVidia trabajan en paralelo… eso quiere decir que de manera simultánea, GPU están haciendo operaciones distintas, permitiendo que cálculos mucho más complejos se puedan realizar en menos tiempo… y que se puedan construir centros de datos enormes donde cálculos masivos pueden distribuirse.
Ahora, este gráfico es una estimación del consumo de energía anual por los chips usados por inteligencia artificial de NVidia, que se basa a su vez en una estimación de ventas, suponiendo que funcionen al 75% de su capacidad. Dicho consumo se compara con el consumo eléctrico de hogares estadounidenses en 2021.
Si quieres poner esto en un contexto más justo, este de acá es el consumo mundial anual en 2022…
1 terawatt son 1000 gigawatts o sea que estamos diciendo que todavía el consumo de chips de NVidia está en el orden de consumo mil veces menor que el mundo… pero sigue siendo una cantidad enorme de energía…
Este es uno de los artículos que intenta hacer un estimado del consumo energético al utilizar herramientas tipo Chat GPT. De acuerdo a sus datos, cada vez que buscas en Google y te muestra un resumen hecho con inteligencia artificial, se consume 10 veces más energía de lo que se documentaba en 2009.
Al principio del video te decía que AlphaZero aprendió a jugar mediante observación, a esa fase se le llama ENTRENAMIENTO, para que tú puedas hablar con un bot como Chat GPT, se necesitó tener tener el sistema previamente suficiente tiempo consumiendo información… y cada cierto tiempo hay que actualizarlo con eventos más actuales y con cantidades mayores de datos… es así como hemos pasado del Chat GPT a secas, al 2, 3, 4o, etc… y lo mismo sucede con sus análogos que cada cierto tiempo brincan de versión. En esta fase de entrenamiento hay consumo energético y no nos está dando “entregables”.
La relevancia del consumo energético se encuentra en que NO se genera en el mundo suficiente energía verde aún… y eso quiere decir, dependiendo de dónde esté el centro de datos, que generar la energía que requieren estos sistemas, conlleva liberación de gases de efecto invernadero.
Hay estimados que sugieren que en el entrenamiento de Chat GPT se consumieron 1287 megawatts hora de electricidad y se produjeron 552 toneladas de CO2, lo que equivale a conducir 123 coches de gasolina durante un año.
Luego está la fase de “inferencias” que es cuando los usuarios interactuamos con el sistema para obtener algo de él.
De las distintas formas en que podemos utilizar los distintos modelos de inteligencia artificial que ahora tenemos accesibles… y me refiero a la inferencia, cuando sí extraemos algo de los sistemas… la que consume más energía de todos es la generación de imágenes.
Hay estimados que sugieren a manera de comparativa que generar una imagen puede consumir tanta energía como una carga completa de tu smartphone.
Otros sugieren que producir 1000 imágenes con Stable Diffusion XL libera tanto CO2 como conducir 4,1 millas en un coche promedio.
Por otro lado, todas estas tecnologías, igual que tu computadora, se basan en utilizar materiales que se llaman semiconductores. Habrás notado que tu computadora tiene ventiladores y que cuando la pones a hacer cosas que requieren más procesamiento… como generar los increíbles gráficos de tu videojuego favorito, los ventiladores se escuchan más fuerte.
Y esto es porque el procesamiento para lograr estos gráficos implica mayor consumo de electricidad, que genera calor… todo el calor que no se alcance a disipar eleva la temperatura… y el problema con los semiconductores, es que para funcionar adecuadamente deben mantenerse en cierto rango de temperatura. Por eso escuchas el ventilador más fuerte y por eso, incluso hay equipos que utilizan sistemas de enfriamiento con agua, y no son los únicos.
En el caso de los centros de datos que están detrás de lso bots como Chat GPT, para lograr el enfriamiento que necesitan también se usa agua… cantidades industriales de agua.
Por ejemplo, Microsoft reveló que su consumo global de agua se disparó un 34% de 2021 a 2022 (lo cual representa el agua de más de 2500 albercas olímpicas), este fuerte aumento se vincula con el desarrollo de IA y su cooperación con OpenAI, la empresa detrás de Chat GPT.
Google registró un aumento del 20% en el consumo de agua en el mismo periodo, también atribuible en gran medida a la inteligencia artificial.
Para aterrizar esto en algo más concreto… en este pre-print se estima cuántas preguntas le puedes a hacer a Chat GPT3 antes de que dicho sistema consuma medio litro de agua en su sistema de enfriamietno para responderte.
En México, medio litro de agua se consume con 21 preguntas, mientras que en Irlanda son unas 70 preguntas y en el otro extremo, si vives en Washington, el estado, con sólo 10 preguntas.
Como te lo platiqué hace tiempo en este otro video, la escasez del agua en el mundo YA es un tema que nos debería mantener ocupados en su solución… este tema no es trivial.
Estas herramientas, como cualquier otra, tiene ventajas si la sabemos utilizar, pero sepamos que todo conlleva un costo…
ponerte a jugar o discutir con Chat GPT, o generar imágenes ociosamente… libera CO2 a la atmósfera empeorando el cambio climático y contribuye a empeorar la escasez del agu para todos.
Referencias
2022 Expert Survey on Progress in AI. (2023, 31 octubre). AI Impacts. https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/
Eightvisions. (2023, 14 enero). I trained an AI to imitate my own art style. This is what happened. Medium. https://towardsdatascience.com/i-trained-an-ai-to-imitate-my-own-art-style-this-is-what-happened-461785b9a15b
Global electricity consumption 2022 | Statista. (2024, 28 junio). Statista. https://www.statista.com/statistics/280704/world-power-consumption/
Heikkilä, M. (2023, 1 diciembre). Making an image with generative AI uses as much energy as charging your phone. MIT Technology Review. https://www.technologyreview.com/2023/12/01/1084189/making-an-image-with-generative-ai-uses-as-much-energy-as-charging-your-phone/
Jung C and Srinivasa Desikan B (2024) Transformed by AI: How generative artificial intelligence could affect work in the UK – and how to manage it, IPPR. http://www.ippr.org/articles/transformed-by-ai
Li, P., Yang, J., Islam, M. A., & Ren, S. (2023). Making AI Less «Thirsty»: Uncovering and Addressing the Secret Water Footprint of AI Models. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2304.03271
Longpre, S., Mahari, R., Obeng-Marnu, N., Brannon, W., South, T., Kabbara, J., & Pentland, S. (2024). Data Authenticity, Consent, and Provenance for AI Are All Broken: What Will It Take to Fix Them? An MIT Exploration of Generative AI. https://doi.org/10.21428/e4baedd9.a650f77d
Luccioni, A. S., Jernite, Y., & Strubell, E. (2023). Power Hungry Processing: Watts Driving the Cost of AI Deployment? arXiv (Cornell University). https://doi.org/10.48550/arxiv.2311.16863
OECD AI Policy Observatory Portal. (s. f.). https://oecd.ai/en/wonk/how-much-water-does-ai-consume
Rogelberg, S. (2023, 9 septiembre). A.I. tools fueled a 34% spike in Microsoft’s water consumption, and one city with its data centers is concerned about the effect on residential supply. Fortune. https://fortune.com/2023/09/09/ai-chatgpt-usage-fuels-spike-in-microsoft-water-consumption/
Saenko, K. (2024, 20 febrero). A computer scientist breaks down generative AI’s hefty carbon footprint. Scientific American. https://www.scientificamerican.com/article/a-computer-scientist-breaks-down-generative-ais-hefty-carbon-footprint/
Statista. (2024, 14 febrero). Energy consumption of Nvidia’s high end microchips in 2024. https://www.statista.com/statistics/1446532/energy-consumption-nvidia-microchip/
Vincent, J. (2023, 16 enero). AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit. The Verge. https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart
Wikipedia contributors. (2024, 18 junio). AlphaZero. Wikipedia. https://en.wikipedia.org/wiki/AlphaZero
Zahn, M. (2024, 27 marzo). AI could eliminate nearly 8 million jobs in UK, study shows. ABC News. https://abcnews.go.com/Business/ai-eliminate-8-million-jobs-uk-study-shows/story?id=108540016