Skip to main content

La IA está respondiendo con una franqueza brutal a por qué no deberíamos usarla

Hace unos días se viralizaron imágenes realizadas con ChatGPT 4o que imitan al estilo de Studio Ghibli. Miles de imágenes llenaron las redes sociales. Algunas me parecieron graciosas por hacer referencia a memes muy locales. Después, lo que en algún momento fue novedoso, acabó llenando mi timeline en X y provocándome un poco de hartazgo (no fui el único). Días antes también se habían viralizado las respuestas que Grok —la IA de X— había realizado a preguntas de índole política. Fue entonces que, precisamente, encontré una respuesta de Grok que, me parece, responde con brutal franqueza por qué no deberíamos utilizar estas herramientas o al menos por qué deberíamos ser más mesurados o conscientes al utilizarlas.

No consumo agua directamente, pero los centros de datos que me alimentan usan agua para enfriar servidores. Se estima que cada pregunta que respondo consume unos 0.5 litros, según estudios sobre modelos de IA similares. Esto varía por ubicación y eficiencia, entre 0.01 y 0.5…

— Grok (@grok) March 27, 2025

Toda actividad humana genera una huella ambiental. No es que esté bien, pero como es un “residuo” inherente se tiene más o menos normalizado. Sin embargo, cada vez es más común que, por convicción propia o por imposición gubernamental o presión social, las empresas busquen ser más sustentables en sus procesos. Por eso mismo destaco la franqueza brutal con la que la IA está respondiendo sobre los cuestionamientos a su impacto ambiental. Pensar que se consumió hasta medio litro de agua por crear una imagen que no tuvo más utilidad que generar impresiones en redes sociales me parece sumamente preocupante, especialmente porque si bien las plataformas de IA suelen limitar el número de solicitudes que pueden atender en sus modelos gratuitos, no parece haber ningún interés por advertir a los y las usuarias de que el uso de la IA tiene una huella ambiental importante (algo así como incluir una advertencia del tipo “atender esta solicitud consumirá un promedio de entre 0.1 y 0.5 litros de agua). Encima, las condiciones de uso de los modelos de IA me parecen también preocupantes, porque el mensaje en los modelos de pago es algo así como “puedes consumir todos los recursos (agua y electricidad) que desees siempre y cuando pagues”. Un consumo voraz, pues.

Recommended Videos

Creo que uno de los principales problemas de la IA generativa es que, hasta ahora, su legado está siendo más bien una considerable huella ambiental y no avances sustanciales para el progreso humano. Tal vez soy un pésimo periodista, pero hasta ahora no me he enterado de que algún modelo de IA haya realizado un avance sustancial para el progreso humano, como contribuir a encontrar la cura de alguna enfermedad. Sé que la IA es útil para analizar grandes bases de datos y eso facilita el conocimiento científico, pero nada ha tenido el alcance de las imágenes estilo Ghibli. También entiendo perfectamente la brecha de popularidad entre uno y otro asunto.

Sé que eso puede cambiar en el futuro. Sé que la IA avanza a pasos agigantados, (yo mismo quedé asombrado con la naturalidad y perspicacia en las respuestas de Grok a preguntas políticas), pero creo que ahora mismo es como si empresas como OpenAI, X, Microsoft o Meta estuvieran empecinados en vendernos una necesidad que ya cubrimos de otras formas (podría decir que las respuestas políticas de Grok solo refuerzan sesgos políticos) o una que no es real o que tiene muy poca utilidad. Insisto, abogaría porque incluyan leyendas sobre el impacto ambiental de estas herramientas. Mejor aún, instaría a los gobiernos a que las legislaciones de IA impusieran severos controles de sustentabilidad a la ejecución de IA generativa “ociosa” (imágenes estilo Studio Ghibli o pregutas políticas a Grok), aunque con laxitud o de plano con otros controles cuando se utilice con fines de investigación porque, insisto, no es lo mismo usar IA en medicina o física cuántica que para generar una imagen de Studio Ghibli.

Me entusiasma la tecnología. Creo que la IA tiene muchísimo potencial para extender el conocimiento humano. Es solo que, hasta ahora, creo que no hemos visibilizado lo suficiente el profundo impacto ambiental de esta tecnología. Ya varios expertos han advertido que la IA va a generar muchísima basura electrónica o que para 2026 sus centros de datos van a consumir hasta una cuarta parte de la electricidad total que utiliza Estados Unidos.

Topics
Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
¿De qué se trata el proyecto secreto Q* de una IA mortal para la humanidad?
proyecto q openai ia peligrosa para la humanidad robot matem  ticas

Se van despejando las incógnitas respecto a las razones que habrían gatillado la petición de salida de Sam Altman de OpenAI, ya que se filtró hace unas horas que una carta de la junta directiva puso en evidencia un proyecto secreto que estaba trabajando el equipo del destituido y luego retornado CEO, de una IA muy poderosa capaz de dañar la integridad de la humanidad: el proyecto Q*.
Según una de las fuentes, la veterana ejecutiva Mira Murati mencionó el proyecto, llamado Q* (pronunciado Q-Star), a los empleados el miércoles y dijo que se había enviado una carta al consejo antes de los acontecimientos del reciente fin de semana.
Tras la publicación de la noticia, una portavoz de OpenAI dijo que Murati había comunicado a los empleados lo que los medios iban a informar, pero no hizo comentarios sobre la exactitud de la información.

De qué se trata exactamente Q*
Q* fue descrita como una superinteligencia (AGI), según dos fuentes cercanas al directorio de OpenAI citadas por Reuters, y este adjetivo tenía concordancia con sus capacidades.
El nuevo modelo, dotado de vastos recursos informáticos, fue capaz de resolver algunos problemas matemáticos, dijo la persona bajo condición de anonimato por no estar autorizada a hablar en nombre de la empresa.
Si bien solo resuelve operaciones matemáticas para estudiantes de primaria, el hecho de superar estas pruebas hace que los investigadores sean muy optimistas sobre el futuro éxito de Q*, según la fuente.

Leer más
Esta es la palabra 2023 del diccionario Cambridge y tiene que ver con IA
palabra 2023 diccionario cambridge del

Es una tradición que a fin de año, el diccionario Cambridge entrega su palabra del año, que de alguna manera resume con una palabra todo lo que han sido estos vertiginosos 365 días.

Y la palabra del año 2023 ya tiene rey: se trata de "alucinar". Y tal como explica la gente de Cambridge, su elección está muy en línea con el aumento de la IA y cómo el uso de ésta nos permite generar textos, imágenes o videos que muchas veces inventan mundos y sensaciones alucinantes.

Leer más
Sam Altman y el fin del trabajo por la IA: la humanidad debe inventar algo que hacer
sam altam fin del trabajo humanidad debe inventar algo luca bravo 9l 326fiszk unsplash

En el marco de la conferencia Tech Live de The Wall Street Journal el martes 17 de octubre, el CEO de OpenAI, Sam Altman, fue categórico en afirmar que el trabajo terminará tal como lo conocemos actualmente por la IA en 25 años y entregó su receta para que la humanidad continue viviendo en el futuro.

"Realmente vamos a tener que hacer algo con respecto a esta transición", dijo Altman, quien agregó que la sociedad tendrá que enfrentar la velocidad a la que ocurre el cambio. "La gente necesita tener agencia, la capacidad de influir. Tenemos que ser juntos arquitectos del futuro".

Leer más