Skip to main content
  1. Home
  2. Tendencias
  3. Features

Todo lo que debes saber de la guerra de OpenAI contra los filtradores de Sora

Add as a preferred source on Google
Sora AI
DTES

Una situación controvertida y extremadamente delicada está viviendo OpenAI con un grupo «voluntario» de probadores de su herramienta de IA generativa de video, Sora. Todo, luego de que tras meses en esta dinámica de ensayo, el colectivo que se hace llamar PR Puppets, afirmó que se les pidió trabajar como probadores de errores y investigación y desarrollo no remunerados mientras participaban en el «lavado de arte» de herramientas de inteligencia artificial.

Pero OpenAI dice que la participación en la prueba alfa temprana es voluntaria y no tiene requisitos para que los evaluadores proporcionen comentarios.

Recommended Videos

PR Puppets publicó su punto de acceso «Generate with Sora» a Hugging Face alrededor de las 8:30 hora del este el martes por la mañana, según los registros de confirmación de Git. Rápidamente, los expertos en IA en las redes sociales notaron la publicación y confirmaron que la página se conectaba a los puntos finales en la API Sora real de OpenAI y se alojaba en un dominio videos.openai.com, presumiblemente con tokens de autenticación proporcionados a los probadores por la propia OpenAI.

Por supuesto, después de unas horas todo esto fue rápidamente neutralizado, sin embargo, bastaron algunas pocas horas para que muchísimos usuarios comenzaran a dejar sus creaciones en línea:

OMG OpenAI Sora has been leaked!

Free to use now on Huggingface, link in comment

It can be shut down anytime, try it now! It can generate 1080P and up to 10s video! And the results are incredible!

9 Examples: pic.twitter.com/rIJJv5TQTo

— el.cine (@EHuanglu) November 26, 2024

Un portavoz de OpenAI le dijo a The Washington Post que la compañía está pausando temporalmente todo el acceso de prueba a Sora para evaluar la situación. Otros usuarios indagaron en el código para descubrir pistas de diferentes modos y «estilos» que podrían estar en desarrollo para Sora.

La verdad detrás de la demanda de los probadores de Sora

Por intermedio de una carta, el colectivo PR Puppets hizo hincapié en que su molestia radicaba en el engaño de estar participando de manera no remunerada, como mano de obra encubierta, a mejorar la aplicación.

En una carta abierta dirigida a sus «Señores corporativos de la IA», el grupo PR Puppets dijo que estaba protestando en nombre de aproximadamente 300 artistas a los que se les había proporcionado acceso temprano a Sora solo para «proporcionar mano de obra no remunerada a través de pruebas de errores, comentarios y trabajo experimental para el programa para una empresa valorada en $ 150 mil millones [OpenAI]». El grupo afirmó que solo unos pocos de esos artistas verán su trabajo dar sus frutos en forma de una proyección más amplia para sus películas creadas por Sora y se quejó de que OpenAI requiere aprobación antes de que cualquier salida alfa de Sora pueda compartirse públicamente.

«No estamos en contra del uso de la tecnología de IA como herramienta para las artes (si lo estuviéramos, probablemente no nos habrían invitado a este programa)», escribe PR Puppets. «Con lo que no estamos de acuerdo es con cómo se ha implementado este programa de artistas y cómo se está perfilando la herramienta antes de un posible lanzamiento público. Estamos compartiendo esto con el mundo con la esperanza de que OpenAI se vuelva más abierto, más amigable para los artistas y apoye las artes más allá de las acrobacias de relaciones públicas».

Un portavoz de OpenAI habló con el sitio ArsTechnica, y respondió a la carta enviada por la gente del colectivo.

«Sora todavía está en fase de investigación, y estamos trabajando para equilibrar la creatividad con sólidas medidas de seguridad para un uso más amplio. Cientos de artistas de nuestra alfa han dado forma al desarrollo de Sora, ayudando a priorizar nuevas características y salvaguardas. La participación es voluntaria, sin obligación de proporcionar comentarios o utilizar la herramienta».

Respecto a la disponibilidad abierta y oficial de Sora para los usuarios, el CPO de OpenAI, Kevin Weil dijo en un reciente AMA de Reddit que la implementación de la plataforma se ha retrasado por la «necesidad de perfeccionar el modelo, la necesidad de hacer bien la seguridad, la suplantación y otras cosas, y la necesidad de escalar la computación».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more