Una situación controvertida y extremadamente delicada está viviendo OpenAI con un grupo «voluntario» de probadores de su herramienta de IA generativa de video, Sora. Todo, luego de que tras meses en esta dinámica de ensayo, el colectivo que se hace llamar PR Puppets, afirmó que se les pidió trabajar como probadores de errores y investigación y desarrollo no remunerados mientras participaban en el «lavado de arte» de herramientas de inteligencia artificial.
Pero OpenAI dice que la participación en la prueba alfa temprana es voluntaria y no tiene requisitos para que los evaluadores proporcionen comentarios.
PR Puppets publicó su punto de acceso «Generate with Sora» a Hugging Face alrededor de las 8:30 hora del este el martes por la mañana, según los registros de confirmación de Git. Rápidamente, los expertos en IA en las redes sociales notaron la publicación y confirmaron que la página se conectaba a los puntos finales en la API Sora real de OpenAI y se alojaba en un dominio videos.openai.com, presumiblemente con tokens de autenticación proporcionados a los probadores por la propia OpenAI.
Por supuesto, después de unas horas todo esto fue rápidamente neutralizado, sin embargo, bastaron algunas pocas horas para que muchísimos usuarios comenzaran a dejar sus creaciones en línea:
OMG OpenAI Sora has been leaked!
Free to use now on Huggingface, link in comment
It can be shut down anytime, try it now! It can generate 1080P and up to 10s video! And the results are incredible!
9 Examples: pic.twitter.com/rIJJv5TQTo
— el.cine (@EHuanglu) November 26, 2024
Un portavoz de OpenAI le dijo a The Washington Post que la compañía está pausando temporalmente todo el acceso de prueba a Sora para evaluar la situación. Otros usuarios indagaron en el código para descubrir pistas de diferentes modos y «estilos» que podrían estar en desarrollo para Sora.
La verdad detrás de la demanda de los probadores de Sora
Por intermedio de una carta, el colectivo PR Puppets hizo hincapié en que su molestia radicaba en el engaño de estar participando de manera no remunerada, como mano de obra encubierta, a mejorar la aplicación.
En una carta abierta dirigida a sus «Señores corporativos de la IA», el grupo PR Puppets dijo que estaba protestando en nombre de aproximadamente 300 artistas a los que se les había proporcionado acceso temprano a Sora solo para «proporcionar mano de obra no remunerada a través de pruebas de errores, comentarios y trabajo experimental para el programa para una empresa valorada en $ 150 mil millones [OpenAI]». El grupo afirmó que solo unos pocos de esos artistas verán su trabajo dar sus frutos en forma de una proyección más amplia para sus películas creadas por Sora y se quejó de que OpenAI requiere aprobación antes de que cualquier salida alfa de Sora pueda compartirse públicamente.
«No estamos en contra del uso de la tecnología de IA como herramienta para las artes (si lo estuviéramos, probablemente no nos habrían invitado a este programa)», escribe PR Puppets. «Con lo que no estamos de acuerdo es con cómo se ha implementado este programa de artistas y cómo se está perfilando la herramienta antes de un posible lanzamiento público. Estamos compartiendo esto con el mundo con la esperanza de que OpenAI se vuelva más abierto, más amigable para los artistas y apoye las artes más allá de las acrobacias de relaciones públicas».
Un portavoz de OpenAI habló con el sitio ArsTechnica, y respondió a la carta enviada por la gente del colectivo.
«Sora todavía está en fase de investigación, y estamos trabajando para equilibrar la creatividad con sólidas medidas de seguridad para un uso más amplio. Cientos de artistas de nuestra alfa han dado forma al desarrollo de Sora, ayudando a priorizar nuevas características y salvaguardas. La participación es voluntaria, sin obligación de proporcionar comentarios o utilizar la herramienta».
Respecto a la disponibilidad abierta y oficial de Sora para los usuarios, el CPO de OpenAI, Kevin Weil dijo en un reciente AMA de Reddit que la implementación de la plataforma se ha retrasado por la «necesidad de perfeccionar el modelo, la necesidad de hacer bien la seguridad, la suplantación y otras cosas, y la necesidad de escalar la computación».