Skip to main content

Abogado pide perdón por citaciones judiciales falsas creadas por ChatGPT

Se ha hablado mucho en los últimos meses sobre cómo la nueva ola de chatbots impulsados por IA, ChatGPT entre ellos, podría poner patas arriba numerosas industrias, incluida la profesión legal.

Sin embargo, a juzgar por lo que sucedió recientemente en un caso en la ciudad de Nueva York, parece que podría pasar un tiempo antes de que los abogados altamente capacitados sean dejados de lado por la tecnología.

El extraño episodio comenzó cuando Roberto Mata demandó a una aerolínea colombiana después de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.

Imagen utilizada con permiso del titular de los derechos de autor

La aerolínea, Avianca, le pidió al juez que desestimara el caso, por lo que el equipo legal de Mata elaboró un escrito citando media docena de casos similares que habían ocurrido en un esfuerzo por persuadir al juez para que permitiera que el caso de su cliente procediera, informó el New York Times.

El problema fue que los abogados de la aerolínea y el juez no pudieron encontrar ninguna evidencia de los casos mencionados en el escrito. ¿Por qué? Porque ChatGPT los había inventado todos.

El creador del informe, Steven A. Schwartz, un abogado altamente experimentado en la firma Levidow, Levidow & Oberman, admitió en una declaración jurada que había utilizado el muy celebrado chatbot ChatGPT de OpenAI para buscar casos similares, pero dijo que había «revelado ser poco confiable».

Schwartz le dijo al juez que no había usado ChatGPT antes y «por lo tanto no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Al crear el informe, Schwartz incluso le pidió a ChatGPT que confirmara que los casos realmente sucedieron. El siempre útil chatbot respondió afirmativamente, diciendo que la información sobre ellos se podía encontrar en «bases de datos legales de buena reputación».

El abogado en el centro de la tormenta dijo que «lamenta mucho» haber usado ChatGPT para crear el informe e insistió en que «nunca lo haría en el futuro sin una verificación absoluta de su autenticidad».

Mirando lo que describió como una presentación legal llena de «decisiones judiciales falsas, con citas falsas y citas internas falsas», y describiendo la situación como sin precedentes, el juez Castel ha ordenado una audiencia para principios del próximo mes para considerar posibles sanciones.

Si bien son impresionantes en la forma en que producen texto fluido de alta calidad, ChatGPT y otros chatbots similares también son conocidos por inventar cosas y presentarlas como si fueran reales, algo que Schwartz ha aprendido a su costa. El fenómeno se conoce como «alucinación» y es uno de los mayores desafíos que enfrentan los desarrolladores humanos detrás de los chatbots mientras buscan resolver este pliegue tan problemático.

En otro ejemplo reciente de una herramienta generativa de IA alucinando, un alcalde australiano acusó a ChatGPT de crear mentiras sobre él, incluyendo que fue encarcelado por soborno mientras trabajaba para un banco hace más de una década.

El alcalde, Brian Hood, era en realidad un denunciante en el caso y nunca fue acusado de un delito, por lo que estaba bastante molesto cuando la gente comenzó a informarle sobre la reescritura de la historia del chatbot.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI lanza nueva suscripción premium grupal para ChatGPT
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

Este 10 de enero, OpenAI acaba de informar sobre la puesta en marcha de un nuevo modelo de suscripción para grupos, llamado (no podía ser de otra manera) ChatGPTTeam.

El plan proporciona un espacio de trabajo dedicado para equipos de hasta 149 personas que utilizan ChatGPT, así como herramientas de administración para la gestión de equipos.

Leer más
Ahora podrás manejar con ChatGPT de copiloto en un Volkswagen
volkswagen sedan electrico id aero

En el CES 2024, Volkswagen anunció que integrará ChatGPT en los sistemas de reconocimiento de voz de algunos vehículos futuros, algo que, según el fabricante de automóviles, proporcionará una mayor funcionalidad que el reconocimiento de voz estándar. Está previsto que ChatGPT esté disponible en el segundo trimestre de 2024 y "se está considerando para Estados Unidos", según un comunicado de prensa de VW.

VW está utilizando Cerence Chat Pro para integrar ChatGPT, que permitirá a los conductores acceder al chatbot sin tener que activarlo por separado, crear una cuenta separada de la asociada con el perfil de usuario de su automóvil o instalar una aplicación separada. El reconocimiento de voz seguirá funcionando como en los modelos actuales de VW, donde ya se utiliza para el control del clima, el infoentretenimiento y las funciones de navegación, pero ahora podrá responder a preguntas de cultura general con respuestas procedentes de ChatGPT. Esto no le dará a ChatGPT acceso a los datos del vehículo, y las preguntas y respuestas se "eliminarán de inmediato", según VW.

Leer más
Un grupo de científicos le hicieron un jailbreak a ChatGPT
cientificos jailbreak chatgpt rolf van root lyi1t85lry8 unsplash

Un grupo de investigadores ha descubierto que es posible eludir el mecanismo arraigado en los chatbots de IA para que puedan responder a consultas sobre temas prohibidos o delicados mediante el uso de un chatbot de IA diferente como parte del proceso de entrenamiento.

Un equipo de científicos informáticos de la Universidad Tecnológica de Nanyang (NTU) de Singapur llama extraoficialmente al método un "jailbreak", pero es más oficialmente un proceso "Masterkey". Este sistema utiliza chatbots, incluidos ChatGPT, Google Bard y Microsoft Bing Chat, entre sí en un método de entrenamiento de dos partes que permite que dos chatbots aprendan los modelos del otro y desvíen cualquier comando contra temas prohibidos.

Leer más