Skip to main content

OpenAI estrena herramienta que detecta si un texto lo escribió una IA o un humano

Una de las principales inquietudes en la comunidad educativa y en las profesiones es el actual uso de ChatGPT en la entrega de textos, ensayos, pruebas y otros. Por eso OpenAI tomó el guante y acaba de colocar a disposición una herramienta gratuita basada en la web diseñada para ayudar a los educadores y otros a descubrir si un fragmento de texto en particular fue escrito por un humano o una máquina.

OpenAI advierte que la herramienta es imperfecta y que el rendimiento varía según la similitud del texto que se está analizando con los tipos de escritura en los que se entrenó la herramienta de OpenAI. «Tiene falsos positivos y falsos negativos», dijo el jefe de alineación de OpenAI, Jan Leike en Axios.

Imagen utilizada con permiso del titular de los derechos de autor

Cómo se usa esta nueva funcionalidad de OpenAI

Los usuarios copian un trozo de texto en un cuadro y el sistema calificará la probabilidad de que el texto haya sido generado por un sistema de IA.

  • Ofrece una escala de resultados de cinco puntos: Muy poco probable que haya sido generado por IA, improbable, poco claro, posible o probable.
  • Funciona mejor en muestras de texto de más de 1.000 palabras y en inglés, con un rendimiento significativamente peor en otros idiomas. Y no funciona para distinguir el código de computadora escrito por humanos vs.AI.
  • Dicho esto, OpenAI dice que la nueva herramienta es significativamente mejor que una anterior que había lanzado.

Recomendaciones del editor

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Cómo tomar el curso gratis de OpenAI sobre desarrollo en IA
openai curso gratis inteligencia artificial

"ChatGPT Prompt Engineering for Developers"  es el nombre del curso que acaba de abrir OpenAI y viene a significar 'Prompt engineering / ingeniería de instrucciones de ChatGPT para desarrolladores'. Se trata de un plan de estudios gratis y lo ha hecho uniéndose a DeepLearning.AI, la compañía de Andrew Ng, también cofundador de la plataforma de cursos Coursera y antiguo máximo responsable de Google Brain y del departamento de IA de Baidu.

Este curso de 1,5 horas tiene como objetivo dotar a los desarrolladores de software con las habilidades necesarias para integrar los grandes modelos de lenguajes (LLMs, como GPT-3.5 y GPT-4) en la creación de aplicaciones.

Leer más
OpenAI quiere demandar a estudiantes que hicieron GPT-4 de código abierto
openai demandar estudiantes gpt 4 codigo abierto shantanu kumar xvdknbaja90 unsplash

No hay nada como el grupo de investigación sin fines de lucro convertido en la compañía con fines de lucro OpenAI persiguiendo a un estudiante de ciencias de la computación por un proyecto GPT-4 de código abierto. Suena ridículo, pero es cierto. Los creadores de ChatGPT están amenazando con una demanda contra el estudiante Xtekky si no elimina su repositorio GitHub GPT4free.

Según lo informado por Tom's Hardware, GPT4free es un proyecto de código abierto de un estudiante europeo de informática. El estudiante se identifica como Xtekky, y su herramienta hace ping a varios sitios web que usan GPT-4. Puede clonar el repositorio, configurar el chatbot localmente en su PC e interactuar con GPT-4 sin pagar por el servicio ChatGPT Plus de OpenAI.
Foto por Alan Truly
Lo importante de este enfoque es que no utiliza directamente la interfaz de programación de aplicaciones (API) GPT-4 de OpenAI. OpenAI cobra tarifas a los servicios que usan su API, y GPT4free simplemente se comunica con esos servicios para recibir respuestas.

Leer más
Directora de tecnología de OpenAI: ChatGPT debe ser regulado
mira murati openai chatgpt debe ser regulado

Mira Murati es la CTO (directora de tecnología) de OpenAI y en una extensa entrevista con AP, reconoció que ChatGPT y GPT-4 deben ser regulados por entidades gubernamentales, a la vez que se sorprendió por la acogida emocional que ha tenido la irrupción de su creación.

" Estos sistemas deben ser regulados. En OpenAI, estamos constantemente hablando con gobiernos y reguladores y otras organizaciones que están desarrollando estos sistemas para, al menos a nivel de empresa, acordar algún nivel de estándares. Hemos trabajado en eso en los últimos años con grandes desarrolladores de modelos de lenguaje para alinearnos con algunos estándares de seguridad básicos para la implementación de estos modelos. Pero creo que tiene que pasar mucho más. Los reguladores gubernamentales ciertamente deberían estar muy involucrados", comenzó admitiendo Murati.

Leer más