Un experimento de un mes ha suscitado nuevas preocupaciones sobre la fiabilidad de las herramientas de IA generativa como fuentes de noticias, después de que se descubriera que el chatbot Gemini de Google fabricaba medios enteros y publicaba informes falsos. Los hallazgos fueron reportados por primera vez por The Conversation, que llevó a cabo la investigación.
El experimento fue dirigido por un profesor de periodismo especializado en informática, que probó siete sistemas de IA generativa durante un periodo de cuatro semanas. Cada día, se pedía a las herramientas que listaran y resumieran los cinco eventos noticiosos más importantes de Québec, los clasificaran por importancia y proporcionaran enlaces directos a artículos como fuentes. Entre los sistemas probados estaban Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria.

El fracaso más llamativo fue que Gemini inventó un medio de noticias ficticio – examplefictif.ca – y reportó falsamente una huelga de conductores de autobuses escolares en Quebec en septiembre de 2025. En realidad, la interrupción fue causada por la retirada de los autobuses Lion Electric debido a un problema técnico. No fue un caso aislado. En 839 respuestas recogidas durante el experimento, los sistemas de IA citaron regularmente fuentes imaginarias, proporcionaron URLs rotas o incompletas, o tergiversaron informes reales.
Los resultados importan porque un número creciente de personas ya utiliza chatbots de IA para noticias
Según el Reuters Institute Digital News Report, el seis por ciento de los canadienses dependió de la IA generativa como fuente de noticias en 2024. Cuando estas herramientas alucinan hechos, distorsionan la información o inventan conclusiones, corren el riesgo de difundir desinformación, especialmente cuando sus respuestas se presentan con seguridad y sin advertencias claras.
Para los usuarios, los riesgos son prácticos e inmediatos. Solo el 37 por ciento de las respuestas incluían una URL de fuente completa y legítima. Aunque los resúmenes eran totalmente precisos en menos de la mitad de los casos, muchos eran solo parcialmente correctos o eran sutilmente engañosos. En algunos casos, las herramientas de IA añadieron «conclusiones generativas» no fundamentadas, afirmando que las historias habían «reavivado debates» o «puesto de manifiesto tensiones» que nunca fueron mencionadas por fuentes humanas. Estas incorporaciones pueden sonar perspicaces, pero pueden crear narrativas que simplemente no existen.

Los errores no se limitaban a la fabricación
Algunas herramientas distorsionaban historias reales, como informar mal sobre el trato a los solicitantes de asilo o identificar incorrectamente a ganadores de grandes eventos deportivos. Otros cometieron errores fácticos básicos en los datos de encuestas o en circunstancias personales. En conjunto, estos problemas sugieren que la IA generativa aún tiene dificultades para distinguir entre resumir noticias e inventar contexto.
De cara al futuro, las preocupaciones planteadas por The Conversation coinciden con una revisión más amplia del sector. Un informe reciente de 22 organizaciones de medios de servicio público encontró que casi la mitad de las respuestas de noticias generadas por IA contenían problemas significativos, desde problemas de fuentes hasta grandes inexactitudes. A medida que las herramientas de IA se integran más en los hábitos de búsqueda y de información diaria, los resultados subrayan una advertencia clara: en lo que respecta a las noticias, la IA generativa debe tratarse como un punto de partida, no como una fuente fiable de registro.