Skip to main content

Shutterstock se asocia con OpenAI para vender imágenes con DALL-E

El gigante de venta de bancos de imágenes para publicidad y periodismo, Shutterstock, anunció una asociación con OpenAI para comenzar a comercializar fotos generadas por IA con DALL-E.

Además, Shutterstock está lanzando un «Fondo de contribuyentes» que reembolsará a los creadores cuando la compañía venda trabajo para entrenar modelos de IA de texto a imagen. Esto sigue a las críticas generalizadas de artistas cuya producción ha sido eliminada de la web sin su consentimiento para crear estos sistemas.

Imagen utilizada con permiso del titular de los derechos de autor

En un comunicado de prensa, el CEO de Shutterstock, Paul Hennessy, dijo: «Los medios para expresar la creatividad están en constante evolución y expansión. Reconocemos que es nuestra gran responsabilidad abrazar esta evolución y garantizar que la tecnología generativa que impulsa la innovación se base en prácticas éticas».

Recommended Videos

Sam Altman, CEO de OpenAI, dijo: «Estamos entusiasmados de que Shutterstock ofrezca imágenes DALL-E a sus clientes como una de las primeras implementaciones a través de nuestra API, y esperamos futuras colaboraciones a medida que la inteligencia artificial se convierta en una parte integral de los flujos de trabajo creativos de los artistas».

Shutterstock está prohibiendo el arte de IA cargado en su plataforma por terceros, porque no puede validar el modelo utilizado para crear el contenido, por lo que no puede estar seguro de quién posee los derechos de autor.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
E.T. por fin se va a casa…pero con el mejor postor
E.T.

Los recuerdos de películas son un asunto serio, por lo que este modelo de E.T. que apareció en la exitosa película de Steven Spielberg de 1982 podría alcanzar hasta un millón de dólares en una subasta de Sotheby's que termina el 3 de abril.
El modelo de E.T. es parte de una colección de artículos relacionados con el cine que están siendo llevados a subasta por los herederos de su creador, el artista italiano de efectos especiales Carlo Rambaldi, quien también trabajó en películas legendarias como King Kong (1975), Encuentros cercanos del tercer tipo (1977) y Alien (1979).
El modelo de E.T. que se subasta es el que apareció en la icónica escena del armario de la película en la que el alienígena intenta disfrazarse entre los animales de peluche de Elliott para evitar ser descubierto por su madre.
El modelo mide 17 pulgadas de ancho, 36 pulgadas de alto y 12 pulgadas de profundidad (43,2 x 91,4 x 30,5 cm), y tiene un marco de aluminio cubierto con látex, espuma, paja, pintura acrílica y adhesivo.
"Había una regla básica en el estudio donde Rambaldi y el equipo de efectos especiales dieron vida a la criatura: 'E.T. no es un monstruo'", dice la casa de subastas en la descripción del lote en su sitio web.
"Trabajando a partir del guión de Melissa Mathison que intencionalmente se negó a incluir una descripción física de su personaje central, Rambaldi creó el aspecto de E.T. completamente a partir de imágenes de referencia proporcionadas por Spielberg.
"El director recordó: "Recuerdo que le dije a Carlo: 'Aquí hay algunas fotos de Albert Einstein, Ernest Hemingway y Carl Sandburg. ¿Cómo podemos hacer que los ojos de E.T. sean tan frívolos, marchitos y también tan tristes como esos tres iconos?
Seis meses después de mostrarle por primera vez a Spielberg su visión de E.T., Rambaldi y su equipo de cuatro asistentes completaron el primero de cuatro modelos de trabajo a escala real del diminuto alienígena.
Los modelos extraterrestres de Rambaldi podían hacer 86 movimientos diferentes, desde ojos parpadeantes hasta delicados agarres de la mano, a través de una combinación de animatrónica, mecatrónica y títeres. El modelo animatrónico original se vendió por la colosal cifra de 2,6 millones de dólares en una subasta en 2022.
Puedes hacer una oferta por el lote ahora (necesitarás un mínimo de $500,000), y el martillo caerá el 3 de abril.
Lo que hará el postor ganador con el modelo de E.T. es una incógnita. Podrían hacer lo sensato y ponerlo en un museo, o alternativamente divertirse con él y meterlo en el asiento del pasajero para los viajes al centro comercial. Eso llamaría la atención de algunos.

Leer más
OpenAI quiere barrer con los derechos de autor con la Casa Blanca de «cómplice»
OpenAI Sora

OpenAI es inconsistente en muchas cosas: ¿es una organización sin fines de lucro o con fines de lucro? ¿Sam Altman es apto para ser CEO o no? Pero una cosa en la que la compañía siempre ha sido consistente es en su creencia de que requiere acceso a material protegido por derechos de autor para el entrenamiento de IA. Ahora, a pesar de las muchas voces que no están de acuerdo, OpenAI quiere que el gobierno de EE.UU. apruebe ese acceso sin restricciones dictaminándolo como "uso justo".
La compañía argumenta que Estados Unidos se quedará atrás de China en la carrera de la IA si las empresas no tienen la libertad de entrenar sus modelos con material protegido por derechos de autor, alegando que las "leyes estatales demasiado onerosas" ralentizarán el proceso y afectarán los resultados.
Si eres un creador, esto también podría afectarte. Los artistas, escritores, programadores, fotógrafos y cineastas con portafolios en línea, por ejemplo, son dueños de su trabajo, pero si este plan se lleva a cabo, no tendrás motivos para quejarte cuando tu contenido se utilice para entrenar a la IA. Incluso las actividades creativas más físicas, como el diseño de moda, la fabricación de joyas o la escultura, no son seguras si publicas fotos de tu trabajo en línea.
Parece una broma cruel que OpenAI quiera que el entrenamiento de la IA cuente como uso "justo" de obras protegidas por derechos de autor cuando los productos que desarrolla se utilizarán para generar nuevas versiones destrozadas de creaciones personales. Un ejemplo particularmente directo de esto ocurrió el mes pasado cuando se le pidió al elenco francés de Apex Legends que participara en el entrenamiento de un modelo de IA que eventualmente se usaría para generar líneas de voz para el juego.
Hay muchos usos comerciales para varios tipos de contenido creativo, pero cuanto mejores sean los modelos de IA para imitarlo, más difícil será ganar dinero como creador. Las empresas tienen un gran historial de elegir la opción menos costosa en cualquier situación, y hay pocas razones para creer que esto cambiará pronto.
Es difícil imaginar cuál será la solución para los creadores en esta situación. Las personas que realmente se preocupan por proteger su trabajo pueden comenzar a proteger con contraseña sus portafolios en línea, sacrificando solo algunos ejemplos antiguos a los conjuntos de capacitación y solo compartiendo el resto a pedido humano.
Definitivamente, también habría demanda de una solución adecuada: algún tipo de nuevo portafolio o plataforma de intercambio creativo a la que solo los humanos puedan acceder. Tendría que tener un proceso de autenticación bastante estricto, pero definitivamente hay personas que se preocupan lo suficiente por esto como para sacrificar algo de comodidad.
La Casa Blanca aún no ha respondido al plan de OpenAI, por lo que tendremos que esperar y ver cómo se desarrolla esto.

Leer más
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más