Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Abogado pide perdón por citaciones judiciales falsas creadas por ChatGPT

Add as a preferred source on Google

Se ha hablado mucho en los últimos meses sobre cómo la nueva ola de chatbots impulsados por IA, ChatGPT entre ellos, podría poner patas arriba numerosas industrias, incluida la profesión legal.

Sin embargo, a juzgar por lo que sucedió recientemente en un caso en la ciudad de Nueva York, parece que podría pasar un tiempo antes de que los abogados altamente capacitados sean dejados de lado por la tecnología.

Recommended Videos

El extraño episodio comenzó cuando Roberto Mata demandó a una aerolínea colombiana después de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.

Imagen utilizada con permiso del titular de los derechos de autor

La aerolínea, Avianca, le pidió al juez que desestimara el caso, por lo que el equipo legal de Mata elaboró un escrito citando media docena de casos similares que habían ocurrido en un esfuerzo por persuadir al juez para que permitiera que el caso de su cliente procediera, informó el New York Times.

El problema fue que los abogados de la aerolínea y el juez no pudieron encontrar ninguna evidencia de los casos mencionados en el escrito. ¿Por qué? Porque ChatGPT los había inventado todos.

El creador del informe, Steven A. Schwartz, un abogado altamente experimentado en la firma Levidow, Levidow & Oberman, admitió en una declaración jurada que había utilizado el muy celebrado chatbot ChatGPT de OpenAI para buscar casos similares, pero dijo que había «revelado ser poco confiable».

Schwartz le dijo al juez que no había usado ChatGPT antes y «por lo tanto no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Al crear el informe, Schwartz incluso le pidió a ChatGPT que confirmara que los casos realmente sucedieron. El siempre útil chatbot respondió afirmativamente, diciendo que la información sobre ellos se podía encontrar en «bases de datos legales de buena reputación».

El abogado en el centro de la tormenta dijo que «lamenta mucho» haber usado ChatGPT para crear el informe e insistió en que «nunca lo haría en el futuro sin una verificación absoluta de su autenticidad».

Mirando lo que describió como una presentación legal llena de «decisiones judiciales falsas, con citas falsas y citas internas falsas», y describiendo la situación como sin precedentes, el juez Castel ha ordenado una audiencia para principios del próximo mes para considerar posibles sanciones.

Si bien son impresionantes en la forma en que producen texto fluido de alta calidad, ChatGPT y otros chatbots similares también son conocidos por inventar cosas y presentarlas como si fueran reales, algo que Schwartz ha aprendido a su costa. El fenómeno se conoce como «alucinación» y es uno de los mayores desafíos que enfrentan los desarrolladores humanos detrás de los chatbots mientras buscan resolver este pliegue tan problemático.

En otro ejemplo reciente de una herramienta generativa de IA alucinando, un alcalde australiano acusó a ChatGPT de crear mentiras sobre él, incluyendo que fue encarcelado por soborno mientras trabajaba para un banco hace más de una década.

El alcalde, Brian Hood, era en realidad un denunciante en el caso y nunca fue acusado de un delito, por lo que estaba bastante molesto cuando la gente comenzó a informarle sobre la reescritura de la historia del chatbot.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more