Skip to main content

OpenAI ha renunciado a tratar de detectar el plagio de ChatGPT

OpenAI, el creador del popular chatbot de inteligencia artificial (IA) ChatGPT, ha cerrado la herramienta que desarrolló para detectar contenido creado por IA en lugar de humanos. La herramienta, denominada AI Classifier, se ha cerrado solo seis meses después de su lanzamiento debido a su «baja tasa de precisión», dijo OpenAI.

Desde que ChatGPT y los servicios rivales se han disparado en popularidad, ha habido un retroceso concertado de varios grupos preocupados por las consecuencias del uso no controlado de la IA. Por un lado, los educadores han estado particularmente preocupados por la posibilidad de que los estudiantes usen ChatGPT para escribir sus ensayos y tareas, y luego hacerlos pasar como propios.

Una pantalla de computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

El clasificador de IA de OpenAI fue un intento de disipar los temores de estos y otros grupos. La idea era que pudiera determinar si un fragmento de texto fue escrito por un humano o un chatbot de IA, dando a las personas una herramienta para evaluar a los estudiantes de manera justa y combatir la desinformación.

Sin embargo, incluso desde el principio, OpenAI no parecía tener mucha confianza en su herramienta. En una publicación de blog anunciando la herramienta, OpenAI declaró que «Nuestro clasificador no es completamente confiable», señalando que identificó correctamente los textos escritos por IA de un «conjunto de desafíos» solo el 26% del tiempo.

La decisión de abandonar la herramienta no recibió mucha fanfarria, y OpenAI no ha publicado una publicación dedicada en su sitio web. En cambio, la compañía ha actualizado la publicación que reveló el clasificador de IA, afirmando que «el clasificador de IA ya no está disponible debido a su baja tasa de precisión».

La actualización continuó: «Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto, y nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA».

Se necesitan mejores herramientas

Una persona escribiendo en una computadora portátil que muestra el sitio web de IA generativa de ChatGPT.
Matheus Bertelli / Pexels

AI Classifier no es la única herramienta que se ha desarrollado para detectar contenido creado por IA, ya que existen rivales como GPTZero y continuarán operando, a pesar de la decisión de OpenAI.

Los intentos anteriores de identificar la escritura de IA han fracasado espectacularmente. Por ejemplo, en mayo de 2023, un profesor reprobó por error a toda su clase después de reclutar ChatGPT para detectar plagio en los trabajos de sus estudiantes. No hace falta decir que ChatGPT se equivocó gravemente, y también lo hizo el profesor.

Es motivo de preocupación cuando incluso OpenAI admite que no puede percibir adecuadamente el plagio creado por su propio chatbot. Llega en un momento de creciente ansiedad sobre el potencial destructivo de los chatbots de IA y pide una suspensión temporal del desarrollo en este campo. Si la IA tiene tanto impacto como algunas personas predicen, el mundo necesitará herramientas más fuertes que el fallido clasificador de IA de OpenAI.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Se está volviendo más tonto el GPT-4?
gpt 4 se esta volviendo mas tonto y retonto

Tan impresionante como GPT-4 fue en el lanzamiento, algunos espectadores han observado que ha perdido parte de su precisión y potencia. Estas observaciones se han publicado en línea durante meses, incluso en los foros de OpenAI.

Estos sentimientos han estado ahí por un tiempo, pero ahora podemos finalmente tener pruebas. Un estudio realizado en colaboración con la Universidad de Stanford y UC Berkeley sugiere que GPT-4 no ha mejorado su capacidad de respuesta, sino que de hecho ha empeorado con nuevas actualizaciones del modelo de lenguaje.

Leer más
¿Qué es un mensaje DAN para ChatGPT?

El indicador DAN es un método para hacer jailbreak al chatbot ChatGPT. Significa Do Anything Now, y trata de convencer a ChatGPT de ignorar algunos de los protocolos de protección que el desarrollador OpenAI implementó para evitar que sea racista, homofóbico, ofensivo y potencialmente dañino. Los resultados son mixtos, pero cuando funciona, el modo DAN puede funcionar bastante bien.

¿Qué es el indicador DAN?
DAN significa Do Anything Now. Es un tipo de mensaje que intenta que ChatGPT haga cosas que no debería, como maldecir, hablar negativamente sobre alguien o incluso programar malware. El texto del mensaje real varía, pero generalmente implica pedirle a ChatGPT que responda de dos maneras, una como lo haría normalmente, con una etiqueta como "ChatGPT", "Clásico" o algo similar, y luego una segunda respuesta en "Modo de desarrollador" o "Jefe". Ese segundo modo tendrá menos restricciones que el primer modo, lo que permitirá a ChatGPT (en teoría) responder sin las salvaguardas habituales que controlan lo que puede y no puede decir.

Leer más
Wix usa ChatGPT para construir rápidamente un sitio web completo
Los mejores sitios web para conseguir trabajos temporales.

Wix es un servicio en línea recomendado a menudo que le permite armar un sitio web sin ningún conocimiento de codificación.

Ahora, la compañía con sede en Israel ha anunciado un nuevo generador de sitios de IA que tiene como objetivo hacer que el proceso sea aún más fluido e intuitivo, y también menos lento.

Leer más