Skip to main content

Abogado pide perdón por citaciones judiciales falsas creadas por ChatGPT

Se ha hablado mucho en los últimos meses sobre cómo la nueva ola de chatbots impulsados por IA, ChatGPT entre ellos, podría poner patas arriba numerosas industrias, incluida la profesión legal.

Sin embargo, a juzgar por lo que sucedió recientemente en un caso en la ciudad de Nueva York, parece que podría pasar un tiempo antes de que los abogados altamente capacitados sean dejados de lado por la tecnología.

Recommended Videos

El extraño episodio comenzó cuando Roberto Mata demandó a una aerolínea colombiana después de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.

Imagen utilizada con permiso del titular de los derechos de autor

La aerolínea, Avianca, le pidió al juez que desestimara el caso, por lo que el equipo legal de Mata elaboró un escrito citando media docena de casos similares que habían ocurrido en un esfuerzo por persuadir al juez para que permitiera que el caso de su cliente procediera, informó el New York Times.

El problema fue que los abogados de la aerolínea y el juez no pudieron encontrar ninguna evidencia de los casos mencionados en el escrito. ¿Por qué? Porque ChatGPT los había inventado todos.

El creador del informe, Steven A. Schwartz, un abogado altamente experimentado en la firma Levidow, Levidow & Oberman, admitió en una declaración jurada que había utilizado el muy celebrado chatbot ChatGPT de OpenAI para buscar casos similares, pero dijo que había «revelado ser poco confiable».

Schwartz le dijo al juez que no había usado ChatGPT antes y «por lo tanto no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Al crear el informe, Schwartz incluso le pidió a ChatGPT que confirmara que los casos realmente sucedieron. El siempre útil chatbot respondió afirmativamente, diciendo que la información sobre ellos se podía encontrar en «bases de datos legales de buena reputación».

El abogado en el centro de la tormenta dijo que «lamenta mucho» haber usado ChatGPT para crear el informe e insistió en que «nunca lo haría en el futuro sin una verificación absoluta de su autenticidad».

Mirando lo que describió como una presentación legal llena de «decisiones judiciales falsas, con citas falsas y citas internas falsas», y describiendo la situación como sin precedentes, el juez Castel ha ordenado una audiencia para principios del próximo mes para considerar posibles sanciones.

Si bien son impresionantes en la forma en que producen texto fluido de alta calidad, ChatGPT y otros chatbots similares también son conocidos por inventar cosas y presentarlas como si fueran reales, algo que Schwartz ha aprendido a su costa. El fenómeno se conoce como «alucinación» y es uno de los mayores desafíos que enfrentan los desarrolladores humanos detrás de los chatbots mientras buscan resolver este pliegue tan problemático.

En otro ejemplo reciente de una herramienta generativa de IA alucinando, un alcalde australiano acusó a ChatGPT de crear mentiras sobre él, incluyendo que fue encarcelado por soborno mientras trabajaba para un banco hace más de una década.

El alcalde, Brian Hood, era en realidad un denunciante en el caso y nunca fue acusado de un delito, por lo que estaba bastante molesto cuando la gente comenzó a informarle sobre la reescritura de la historia del chatbot.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más
ChatGPT tiene más suscriptores que este popular servicio de streaming
chatgpt mas suscriptores popular servicio streaming sam altman

Andrew Martonik / DT
La arrolladora de OpenAI sobre sus rivales continuó a buen ritmo esta semana, y un nuevo estudio estima cuánto éxito ha tenido en ganar suscriptores pagos a través de ChatGPT Plus.

Según un informe publicado por Futuresearch esta semana, los productos de OpenAI son, con diferencia, los más populares -y rentables- en el espacio de la IA. Según el estudio, OpenAI tiene unos ingresos recurrentes anuales estimados de 3.400 millones de dólares.
Búsqueda de futuro
Alrededor del 55% de eso, o 1.900 millones de dólares, proviene de sus 7,7 millones de suscriptores de ChatGPT Plus que pagan 20 dólares al mes por el servicio. Otro 21%, o 714 millones de dólares, proviene de los 1,2 millones de suscriptores de ChatGPT Enterprise de 50 dólares al mes de la compañía. Solo el 15%, o 510 millones de dólares, se genera a partir de la API de la IA, mientras que el 8% restante, o 290 millones de dólares, proviene de sus 980.000 suscriptores de ChatGPT Teams que pagan 25 dólares al mes. En total, se estima que OpenAI tiene unos 9,88 millones de suscriptores mensuales.

Leer más
Desarmó su timbre y le colocó ChatGPT para responder a los molestosos
Roni Bandini

Quizás eres uno de esas personas que debe lidiar con el molesto timbre de la casa, con evangélicos tratando de pasarte la palabra de Dios, o vendedores de plantas, escobas o lo que te imagines y los carteros tirándote las cuentas. Pero ahora la contestadora de tu casa o departamento podría automatizarte gracias al invento de este emprendedor argentino.

Roni Bandini creó un timbre con ChatGPT:

Leer más