Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Misterioso acuerdo entre OpenAI y propietario de enorme editorial

Add as a preferred source on Google
Penguin Random House
Penguin Random House Canada to open retail location in Toronto (Photo credit: Ryan Madill) (CNW Group/Penguin Random House Canada Limited) DTES

Un acuerdo bastante curioso es el que se fraguó esta semana entre Bertelsmann (propietario de la editorial Penguin Random House) y la firma de IA de Sam Altman, OpenAI.

Esta alianza, que incluye la implementación de herramientas como ChatGPT Enterprise para todos los empleados del grupo, busca potenciar la creación de contenido, mejorar la eficiencia operativa y explorar nuevas formas de distribución digital.

Recommended Videos

De entrada, Bertelsmann ha dejado claro que el objetivo es usar la IA generativa para apoyar y potenciar los procesos creativos en todas sus divisiones. En el ámbito editorial, esto se traduce en iniciativas como recomendaciones de libros personalizadas en redes sociales, una herramienta que PRHGE ya venía explorando.

Lo más curioso de todo, es que la misma editorial Penguin Random House había señalado en octubre de 2024  que prohibiría el uso de sus libros para entrenar modelos de lenguaje de gran tamaño (LLM). La multinacional implementó una advertencia en los derechos de autor de todos sus libros, indicando que «ninguna parte de este libro puede utilizarse o reproducirse de ninguna manera con el propósito de entrenar tecnologías o sistemas de inteligencia artificial». Además, alineándose con la regulación de la Unión Europea, también expresó su rechazo al scraping de sus obras y reafirmó su compromiso de proteger los derechos de sus autores.

Rolf Hellermann, CFO de Bertelsmann, asegura que el compromiso con el «uso responsable» de la IA es prioritario, pero estas palabras necesitarán traducirse en acciones concretas para ganar la confianza de la comunidad creativa.

Un ejemplo reciente es el de la editorial HarperCollins que permitió que se usaran ciertos títulos de no ficción para entrenar modelos de IA, pero solo con el consentimiento expreso de los autores y ofreciendo compensaciones económicas. Aunque este modelo de «consentimiento informado» podría ser un camino intermedio, también deja preguntas sobre qué tan inclusivo o rentable puede ser para los autores de menor perfil o para títulos de catálogo menos visibles.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more