Skip to main content

OpenAI ha renunciado a tratar de detectar el plagio de ChatGPT

OpenAI, el creador del popular chatbot de inteligencia artificial (IA) ChatGPT, ha cerrado la herramienta que desarrolló para detectar contenido creado por IA en lugar de humanos. La herramienta, denominada AI Classifier, se ha cerrado solo seis meses después de su lanzamiento debido a su «baja tasa de precisión», dijo OpenAI.

Desde que ChatGPT y los servicios rivales se han disparado en popularidad, ha habido un retroceso concertado de varios grupos preocupados por las consecuencias del uso no controlado de la IA. Por un lado, los educadores han estado particularmente preocupados por la posibilidad de que los estudiantes usen ChatGPT para escribir sus ensayos y tareas, y luego hacerlos pasar como propios.

Una pantalla de computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

El clasificador de IA de OpenAI fue un intento de disipar los temores de estos y otros grupos. La idea era que pudiera determinar si un fragmento de texto fue escrito por un humano o un chatbot de IA, dando a las personas una herramienta para evaluar a los estudiantes de manera justa y combatir la desinformación.

Sin embargo, incluso desde el principio, OpenAI no parecía tener mucha confianza en su herramienta. En una publicación de blog anunciando la herramienta, OpenAI declaró que «Nuestro clasificador no es completamente confiable», señalando que identificó correctamente los textos escritos por IA de un «conjunto de desafíos» solo el 26% del tiempo.

La decisión de abandonar la herramienta no recibió mucha fanfarria, y OpenAI no ha publicado una publicación dedicada en su sitio web. En cambio, la compañía ha actualizado la publicación que reveló el clasificador de IA, afirmando que «el clasificador de IA ya no está disponible debido a su baja tasa de precisión».

La actualización continuó: «Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto, y nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA».

Se necesitan mejores herramientas

Una persona escribiendo en una computadora portátil que muestra el sitio web de IA generativa de ChatGPT.
Matheus Bertelli / Pexels

AI Classifier no es la única herramienta que se ha desarrollado para detectar contenido creado por IA, ya que existen rivales como GPTZero y continuarán operando, a pesar de la decisión de OpenAI.

Los intentos anteriores de identificar la escritura de IA han fracasado espectacularmente. Por ejemplo, en mayo de 2023, un profesor reprobó por error a toda su clase después de reclutar ChatGPT para detectar plagio en los trabajos de sus estudiantes. No hace falta decir que ChatGPT se equivocó gravemente, y también lo hizo el profesor.

Es motivo de preocupación cuando incluso OpenAI admite que no puede percibir adecuadamente el plagio creado por su propio chatbot. Llega en un momento de creciente ansiedad sobre el potencial destructivo de los chatbots de IA y pide una suspensión temporal del desarrollo en este campo. Si la IA tiene tanto impacto como algunas personas predicen, el mundo necesitará herramientas más fuertes que el fallido clasificador de IA de OpenAI.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI ahora advierte del riesgo «medio» de GPT-4o
GPT-4o

Han pasado casi dos meses desde que OpenAI lanzó su revolucionario nuevo sistema GPT-4o, que incursionaba en la interacción conversacional y por audio con el usuario.

Bueno, recién después de este tiempo, la gente de la compañía lanzó resultados de una evaluación de seguridad que hicieron al nuevo protocolo.

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más
Elon Musk vuelve a la carga contra OpenAI: «la larga estafa de Altman»
Elon Musk

Elon Musk no quiere darle aire a Sam Altman y a su empresa OpenAI, ya que tras retirar una demanda anterior, volvió a la carga contra la compañía madre de ChatGPT.

La nueva demanda presentada en un tribunal federal en el norte de California el lunes dice que Altman y Greg Brockman "manipularon asiduamente a Musk para que cofundara su falsa empresa sin fines de lucro" al prometer que OpenAI sería más segura y transparente que las alternativas impulsadas por las ganancias. La demanda afirma que las garantías sobre la estructura sin fines de lucro de OpenAI fueron "el gancho de la larga estafa de Altman".

Leer más