El uso de ChatGPT está teniendo un costo asociado indeseado plantea un estudio reciente, ya que como revela un nuevo documento, está consumiendo una cantidad enorme de agua.
Investigadores de la Universidad de Colorado Riverside y la Universidad de Texas Arlington han compartido un documento aún por revisar por pares titulado «Making AI Less Thirsty» que analiza el impacto ambiental del entrenamiento de IA, que no solo necesita abundante electricidad sino también toneladas de agua para enfriar los centros de datos.
Los investigadores encontraron que solo en el entrenamiento GPT-3, Microsoft, que está asociado con OpenAI, consumió la friolera de 185,000 galones de agua, que es, según sus cálculos, equivalente a la cantidad de agua necesaria para enfriar un reactor nuclear.
Como señala el documento, el agua que Microsoft usó para enfriar sus centros de datos con sede en Estados Unidos mientras entrenaba GPT-3 fue suficiente para producir «370 autos BMW o 320 vehículos eléctricos Tesla». Si hubieran entrenado el modelo en los centros de datos de la compañía en Asia, que son aún más grandes, «estos números se habrían triplicado».
Un ejemplo cotidiano lo podría ilustrar mucho mejor:
«ChatGPT necesita ‘beber’ [el equivalente a] una botella de agua de 500 ml para una conversación simple de aproximadamente 20-50 preguntas y respuestas», señala el documento. «Si bien una botella de agua de 500 ml puede no parecer demasiado, la huella hídrica total combinada para la inferencia sigue siendo extremadamente grande, considerando los miles de millones de usuarios de ChatGPT».