Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Los chatbots de IA aún tienen dificultades con las noticias

Add as a preferred source on Google
Computer Hardware, Electronics, Hardware
DTES

Un experimento de un mes ha suscitado nuevas preocupaciones sobre la fiabilidad de las herramientas de IA generativa como fuentes de noticias, después de que se descubriera que el chatbot Gemini de Google fabricaba medios enteros y publicaba informes falsos. Los hallazgos fueron reportados por primera vez por The Conversation, que llevó a cabo la investigación.

El experimento fue dirigido por un profesor de periodismo especializado en informática, que probó siete sistemas de IA generativa durante un periodo de cuatro semanas. Cada día, se pedía a las herramientas que listaran y resumieran los cinco eventos noticiosos más importantes de Québec, los clasificaran por importancia y proporcionaran enlaces directos a artículos como fuentes. Entre los sistemas probados estaban Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria.

El fracaso más llamativo fue que Gemini inventó un medio de noticias ficticio – examplefictif.ca – y reportó falsamente una huelga de conductores de autobuses escolares en Quebec en septiembre de 2025. En realidad, la interrupción fue causada por la retirada de los autobuses Lion Electric debido a un problema técnico. No fue un caso aislado. En 839 respuestas recogidas durante el experimento, los sistemas de IA citaron regularmente fuentes imaginarias, proporcionaron URLs rotas o incompletas, o tergiversaron informes reales.

Los resultados importan porque un número creciente de personas ya utiliza chatbots de IA para noticias

Según el Reuters Institute Digital News Report, el seis por ciento de los canadienses dependió de la IA generativa como fuente de noticias en 2024. Cuando estas herramientas alucinan hechos, distorsionan la información o inventan conclusiones, corren el riesgo de difundir desinformación, especialmente cuando sus respuestas se presentan con seguridad y sin advertencias claras.

Recommended Videos

Para los usuarios, los riesgos son prácticos e inmediatos. Solo el 37 por ciento de las respuestas incluían una URL de fuente completa y legítima. Aunque los resúmenes eran totalmente precisos en menos de la mitad de los casos, muchos eran solo parcialmente correctos o eran sutilmente engañosos. En algunos casos, las herramientas de IA añadieron «conclusiones generativas» no fundamentadas, afirmando que las historias habían «reavivado debates» o «puesto de manifiesto tensiones» que nunca fueron mencionadas por fuentes humanas. Estas incorporaciones pueden sonar perspicaces, pero pueden crear narrativas que simplemente no existen.

Los errores no se limitaban a la fabricación

Algunas herramientas distorsionaban historias reales, como informar mal sobre el trato a los solicitantes de asilo o identificar incorrectamente a ganadores de grandes eventos deportivos. Otros cometieron errores fácticos básicos en los datos de encuestas o en circunstancias personales. En conjunto, estos problemas sugieren que la IA generativa aún tiene dificultades para distinguir entre resumir noticias e inventar contexto.

De cara al futuro, las preocupaciones planteadas por The Conversation coinciden con una revisión más amplia del sector. Un informe reciente de 22 organizaciones de medios de servicio público encontró que casi la mitad de las respuestas de noticias generadas por IA contenían problemas significativos, desde problemas de fuentes hasta grandes inexactitudes. A medida que las herramientas de IA se integran más en los hábitos de búsqueda y de información diaria, los resultados subrayan una advertencia clara: en lo que respecta a las noticias, la IA generativa debe tratarse como un punto de partida, no como una fuente fiable de registro.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La máquina pensante: así es el libro sobre el CEO de Nvidia
Libro la máquina pensante

En junio de 2024, impulsada por el auge de la inteligencia artificial tras el lanzamiento de ChatGPT, Nvidia se convirtió en la corporación más valiosa del mundo. Tres décadas después de su fundación en un restaurante Denny’s, la compañía pasó de fabricar componentes para videojuegos a liderar el mercado global del hardware para IA. Esta transformación histórica es el eje central de La máquina pensante, el nuevo libro del periodista Stephen Witt.

En esta obra, Witt narra cómo Jensen Huang, cofundador y director general de Nvidia, apostó hace más de una década por una tecnología que entonces parecía marginal: la inteligencia artificial. Una decisión arriesgada que terminó redefiniendo la arquitectura del ordenador moderno y situando a la compañía en el centro de la revolución tecnológica actual.

Read more
El papá de Signal crea Confer: la privacidad en asistentes de IA
Electronics, Mobile Phone, Phone

Moxie Marlinspike, el ingeniero que revolucionó la comunicación privada mediante Signal, anunció oficialmente Confer, un servicio de asistente de inteligencia artificial diseñado específicamente para garantizar privacidad de extremo a extremo en conversaciones con sistemas de IA. El proyecto, disponible en fase de prueba inicial, implementa arquitecturas criptográficas que previenen que operadores de plataforma, piratas informáticos o gobiernos accedan a contenido de chat.

Confer fundamenta su propuesta en una premisa central: interacciones con asistentes de inteligencia artificial deberían ser tan privadas como conversaciones entre personas. Actualmente, plataformas como ChatGPT funcionan como "lagos de datos públicos," donde los usuarios comparten pensamientos incompletos, patrones de razonamiento y puntos de incertidumbre que permanecen registrados indefinidamente. Un decreto judicial en mayo de 2025 requirió a OpenAI preservar registros completos de conversaciones de usuarios, incluyendo chats eliminados.

Read more
Esta piel artificial le daría una sensibilidad ‘humana’ a los robots
Head, Person, Face

Los robots mejoran en ver, oír y moverse, pero el tacto siempre ha sido la pieza que faltaba. En el CES 2026, Ensuring Technology presentó un nuevo tipo de piel artificial que finalmente podría dar a los robots algo parecido a la de la sensibilidad humana, ayudándoles a sentir el mundo en lugar de simplemente chocar con él.

La última tecnología de detección táctil de la compañía está diseñada para ayudar a los robots a comprender la presión, la textura y el contacto de formas que van más allá de simples sensores táctiles. En el centro del anuncio hay dos productos llamados Tacta y HexSkin, ambos orientados a resolver un problema de larga duración en robótica.

Read more