Skip to main content

OpenAI se apodera de más de 101 años de periodismo

La clásica y legendaria revista Time, que tiene más de 101 años de periodismo y reportajes a cuestas, ahora pasará a la era de la IA, ya que acaba de firmar un acuerdo de asociación con OpenAI, para que ChatGPT y todos sus productos tengan acceso a su extenso catálogo e información.

«A lo largo de nuestros 101 años de historia, TIME ha adoptado la innovación para garantizar que la entrega de nuestro periodismo de confianza evolucione junto con la tecnología», dijo el director de operaciones de TIME, Mark Howard. «Esta asociación con OpenAI avanza en nuestra misión de ampliar el acceso a información confiable a nivel mundial a medida que continuamos adoptando nuevas formas innovadoras de llevar el periodismo de TIME a audiencias de todo el mundo».

Revista Time
Digital Trends Español

«Nos estamos asociando con TIME para facilitar a las personas el acceso al contenido de noticias a través de nuestras herramientas de IA y para apoyar el periodismo de buena reputación al proporcionar la atribución adecuada a las fuentes originales», dijo Brad Lightcap, director de operaciones de OpenAI.

Recommended Videos

OpenAI también tendrá acceso al contenido en tiempo real de Time, con el objetivo aparente de responder a las consultas de los usuarios sobre noticias de última hora. A cambio, OpenAI citará a Time y enlazará con el material original en el sitio web de la publicación.

Sin embargo, no todos los editores están de acuerdo con aliarse a OpenAI, al contrario, El New York Times, el Chicago Tribune, el New York Daily News y otros han demandado a la compañía y a su socio Microsoft por infracción de derechos de autor, alegando que entrenaron chatbots de IA en el trabajo de esas publicaciones sin permiso.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Google contraataca ante Sora de OpenAI con Veo 2
google veo 2 rival sora openai

La división DeepMind de Google presentó el lunes su modelo de generación de video Veo de segunda generación, que puede crear clips de hasta dos minutos de duración y con resoluciones que alcanzan la calidad 4K, es decir, seis veces la duración y cuatro veces la resolución de los clips de 20 segundos / 1080p que Sora puede generar.

Por supuesto, esos son los límites superiores teóricos de Veo 2. Actualmente, el modelo solo está disponible en VideoFX, la plataforma experimental de generación de video de Google, y sus clips tienen un límite de ocho segundos y una resolución de 720p. VideoFX también está en lista de espera, por lo que no cualquiera puede iniciar sesión para probar Veo 2, aunque la compañía anunció que ampliará el acceso en las próximas semanas. Un portavoz de Google también señaló que Veo 2 estará disponible en la plataforma Vertex AI una vez que la compañía pueda escalar suficientemente las capacidades del modelo.

Leer más
OpenAI tuvo que cerrar acceso a Sora tras colapso el primer día
openai cerrar acceso sora colapso

Un día, eso fue lo que duró exactamente el lanzamiento público de Sora, la IA que genera videos a través de instrucciones de texto. Todo esto por el colapso de sus servidores ante la gran demanda de gente.

Un mensaje que se muestra actualmente en La página de registro dice que la creación de cuentas no está disponible temporalmente debido al tráfico pesado.

Leer más
Sora el generador de video de OpenAI se incorpora a los planes ChatGPT
sora generador video openai incorpora planes chatgpt

Después de varias demostraciones durante 2024, finalmente este último mes del año, OpenAI acaba de anunciar que Sora, su generador de IA de texto a video, saldrá al ruedo comercial y estará presente en los planes de pago de ChatGPT: el Plus y el Pro.

Lo primero que ha enseñado OpenAI (con Sam Altman en escena) es Explore, un repositorio donde los usuarios pueden descubrir y compartir sus creaciones. Como la generación de vídeo va a ser complicada, acompañan a los vídeos los prompts introducidos para llegar a crear algo así.

Leer más