Se ha hablado mucho en los últimos meses sobre cómo la nueva ola de chatbots impulsados por IA, ChatGPT entre ellos, podría poner patas arriba numerosas industrias, incluida la profesión legal.
Sin embargo, a juzgar por lo que sucedió recientemente en un caso en la ciudad de Nueva York, parece que podría pasar un tiempo antes de que los abogados altamente capacitados sean dejados de lado por la tecnología.
El extraño episodio comenzó cuando Roberto Mata demandó a una aerolínea colombiana después de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.
La aerolínea, Avianca, le pidió al juez que desestimara el caso, por lo que el equipo legal de Mata elaboró un escrito citando media docena de casos similares que habían ocurrido en un esfuerzo por persuadir al juez para que permitiera que el caso de su cliente procediera, informó el New York Times.
El problema fue que los abogados de la aerolínea y el juez no pudieron encontrar ninguna evidencia de los casos mencionados en el escrito. ¿Por qué? Porque ChatGPT los había inventado todos.
El creador del informe, Steven A. Schwartz, un abogado altamente experimentado en la firma Levidow, Levidow & Oberman, admitió en una declaración jurada que había utilizado el muy celebrado chatbot ChatGPT de OpenAI para buscar casos similares, pero dijo que había «revelado ser poco confiable».
Schwartz le dijo al juez que no había usado ChatGPT antes y «por lo tanto no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».
Al crear el informe, Schwartz incluso le pidió a ChatGPT que confirmara que los casos realmente sucedieron. El siempre útil chatbot respondió afirmativamente, diciendo que la información sobre ellos se podía encontrar en «bases de datos legales de buena reputación».
El abogado en el centro de la tormenta dijo que «lamenta mucho» haber usado ChatGPT para crear el informe e insistió en que «nunca lo haría en el futuro sin una verificación absoluta de su autenticidad».
Mirando lo que describió como una presentación legal llena de «decisiones judiciales falsas, con citas falsas y citas internas falsas», y describiendo la situación como sin precedentes, el juez Castel ha ordenado una audiencia para principios del próximo mes para considerar posibles sanciones.
Si bien son impresionantes en la forma en que producen texto fluido de alta calidad, ChatGPT y otros chatbots similares también son conocidos por inventar cosas y presentarlas como si fueran reales, algo que Schwartz ha aprendido a su costa. El fenómeno se conoce como «alucinación» y es uno de los mayores desafíos que enfrentan los desarrolladores humanos detrás de los chatbots mientras buscan resolver este pliegue tan problemático.
En otro ejemplo reciente de una herramienta generativa de IA alucinando, un alcalde australiano acusó a ChatGPT de crear mentiras sobre él, incluyendo que fue encarcelado por soborno mientras trabajaba para un banco hace más de una década.
El alcalde, Brian Hood, era en realidad un denunciante en el caso y nunca fue acusado de un delito, por lo que estaba bastante molesto cuando la gente comenzó a informarle sobre la reescritura de la historia del chatbot.