Una de las interrogantes más grandes que existe en el uso de inteligencia artificial, es cuánto es el gasto energético que tienen los chatbots o estos lenguajes artificiales. Google, en un ejercicio de transparencia, presentó un informe «bastante conveniente», donde afirma que la escritura de un prompt en Gemini (texto), solo utiliza cinco gotas de agua.
El estudio que publicó el medio The Verge, indica que «un mensaje de texto promedio de Gemini consume alrededor de cinco gotas de agua, o 0,26 mililitros, y casi tanta electricidad como ver televisión durante menos de nueve segundos, aproximadamente 0,24 vatios-hora (Wh), lo que produce alrededor de 0,03 gramos de emisiones de dióxido de carbono».
Los expertos desmienten a Google
Sin embargo, en el mismo reportaje, expertos en temas de IA y energía, cuestionaron el estudio y las cifras arrojadas por Google.
«Simplemente están ocultando la información crítica», dice Shaolei Ren, profesor asociado de ingeniería eléctrica e informática en la Universidad de California, Riverside. «Esto realmente difunde el mensaje equivocado al mundo».
Un gran problema que señalaron los expertos es que Google omite el uso indirecto de agua en sus estimaciones. Su estudio incluyó agua que los centros de datos usan en los sistemas de enfriamiento para evitar que los servidores se sobrecalienten.
Como resultado, con la estimación de agua de Google, «básicamente solo se ve la punta del iceberg», dice Alex de Vries-Gao, fundador del sitio web Digiconomist y candidato a doctorado en el Instituto de Estudios Ambientales de la Vrije Universiteit Amsterdam que ha estudiado la demanda de energía de los centros de datos utilizados para la criptominería y la inteligencia artificial.
De hecho, hay otra métrica importante que Google no toma en cuenta, que sería incluir también una medida de emisiones de carbono «basada en la ubicación«, que considere el impacto que tiene un centro de datos dondequiera que opere teniendo en cuenta la combinación actual de energía limpia y sucia de la red eléctrica local.
«Si bien estamos orgullosos de la innovación detrás de nuestras ganancias de eficiencia hasta ahora, estamos comprometidos a continuar con mejoras sustanciales en los próximos años», dicen Amin Vahdat, vicepresidente / gerente general de IA e infraestructura de Google Cloud, y Jeff Dean, científico jefe de Google DeepMind y Google Research, en un blog.