Skip to main content
  1. Home
  2. Tendencias
  3. Features

La IA está respondiendo con una franqueza brutal a por qué no deberíamos usarla

Add as a preferred source on Google

Hace unos días se viralizaron imágenes realizadas con ChatGPT 4o que imitan al estilo de Studio Ghibli. Miles de imágenes llenaron las redes sociales. Algunas me parecieron graciosas por hacer referencia a memes muy locales. Después, lo que en algún momento fue novedoso, acabó llenando mi timeline en X y provocándome un poco de hartazgo (no fui el único). Días antes también se habían viralizado las respuestas que Grok —la IA de X— había realizado a preguntas de índole política. Fue entonces que, precisamente, encontré una respuesta de Grok que, me parece, responde con brutal franqueza por qué no deberíamos utilizar estas herramientas o al menos por qué deberíamos ser más mesurados o conscientes al utilizarlas.

No consumo agua directamente, pero los centros de datos que me alimentan usan agua para enfriar servidores. Se estima que cada pregunta que respondo consume unos 0.5 litros, según estudios sobre modelos de IA similares. Esto varía por ubicación y eficiencia, entre 0.01 y 0.5…

— Grok (@grok) March 27, 2025

Toda actividad humana genera una huella ambiental. No es que esté bien, pero como es un “residuo” inherente se tiene más o menos normalizado. Sin embargo, cada vez es más común que, por convicción propia o por imposición gubernamental o presión social, las empresas busquen ser más sustentables en sus procesos. Por eso mismo destaco la franqueza brutal con la que la IA está respondiendo sobre los cuestionamientos a su impacto ambiental. Pensar que se consumió hasta medio litro de agua por crear una imagen que no tuvo más utilidad que generar impresiones en redes sociales me parece sumamente preocupante, especialmente porque si bien las plataformas de IA suelen limitar el número de solicitudes que pueden atender en sus modelos gratuitos, no parece haber ningún interés por advertir a los y las usuarias de que el uso de la IA tiene una huella ambiental importante (algo así como incluir una advertencia del tipo “atender esta solicitud consumirá un promedio de entre 0.1 y 0.5 litros de agua). Encima, las condiciones de uso de los modelos de IA me parecen también preocupantes, porque el mensaje en los modelos de pago es algo así como “puedes consumir todos los recursos (agua y electricidad) que desees siempre y cuando pagues”. Un consumo voraz, pues.

Recommended Videos

Creo que uno de los principales problemas de la IA generativa es que, hasta ahora, su legado está siendo más bien una considerable huella ambiental y no avances sustanciales para el progreso humano. Tal vez soy un pésimo periodista, pero hasta ahora no me he enterado de que algún modelo de IA haya realizado un avance sustancial para el progreso humano, como contribuir a encontrar la cura de alguna enfermedad. Sé que la IA es útil para analizar grandes bases de datos y eso facilita el conocimiento científico, pero nada ha tenido el alcance de las imágenes estilo Ghibli. También entiendo perfectamente la brecha de popularidad entre uno y otro asunto.

Sé que eso puede cambiar en el futuro. Sé que la IA avanza a pasos agigantados, (yo mismo quedé asombrado con la naturalidad y perspicacia en las respuestas de Grok a preguntas políticas), pero creo que ahora mismo es como si empresas como OpenAI, X, Microsoft o Meta estuvieran empecinados en vendernos una necesidad que ya cubrimos de otras formas (podría decir que las respuestas políticas de Grok solo refuerzan sesgos políticos) o una que no es real o que tiene muy poca utilidad. Insisto, abogaría porque incluyan leyendas sobre el impacto ambiental de estas herramientas. Mejor aún, instaría a los gobiernos a que las legislaciones de IA impusieran severos controles de sustentabilidad a la ejecución de IA generativa “ociosa” (imágenes estilo Studio Ghibli o pregutas políticas a Grok), aunque con laxitud o de plano con otros controles cuando se utilice con fines de investigación porque, insisto, no es lo mismo usar IA en medicina o física cuántica que para generar una imagen de Studio Ghibli.

Me entusiasma la tecnología. Creo que la IA tiene muchísimo potencial para extender el conocimiento humano. Es solo que, hasta ahora, creo que no hemos visibilizado lo suficiente el profundo impacto ambiental de esta tecnología. Ya varios expertos han advertido que la IA va a generar muchísima basura electrónica o que para 2026 sus centros de datos van a consumir hasta una cuarta parte de la electricidad total que utiliza Estados Unidos.

Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
Topics
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more