Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Anthropic paga millonaria suma para resolver demanda de libros pirateados

Add as a preferred source on Google
Cómo compartir un libro de Kindle.
Moyo Studio/Getty Images / DTES

La compañía Anthropic, que está detrás de Claude AI, está queriendo compensar a miles de autores de libros que se vieron afectados por un pirateo de su contenido, utilizado para entrenar la IA de la empresa.

Anthropic acordó pagar 1.500 millones de dólares para resolver la demanda colectiva de autores de libros que dicen que la compañía tomó copias pirateadas de sus obras para entrenar a su chatbot.

Recommended Videos

El acuerdo histórico, si es aprobado por un juez, ya que podría marcar un punto de inflexión en las batallas legales entre las compañías de inteligencia artificial y los escritores, artistas visuales y otros profesionales creativos que los acusan de infracción de derechos de autor.

La compañía acordó pagar a los autores o editores alrededor de $ 3,000 por cada uno de los aproximadamente 500,000 libros cubiertos por el acuerdo.

«Por lo que sabemos, es la mayor recuperación de derechos de autor de la historia», dijo Justin Nelson, abogado de los autores. «Es el primero de su tipo en la era de la IA».

Un trío de autores, la novelista de suspenso Andrea Bartz y los escritores de no ficción Charles Graeber y Kirk Wallace Johnson iniciaron la demanda el 2024 para buscar esa reparación.

Si Anthropic no hubiera llegado a un acuerdo, los expertos dicen que perder el caso después de un juicio programado para diciembre podría haberle costado aún más dinero a la compañía con sede en San Francisco.

Anthropic dijo en un comunicado el viernes que el acuerdo, si se aprueba, «resolverá los reclamos heredados restantes de los demandantes».

«Seguimos comprometidos con el desarrollo de sistemas de IA seguros que ayuden a las personas y organizaciones a ampliar sus capacidades, avanzar en el descubrimiento científico y resolver problemas complejos», dijo Aparna Sridhar, asesora general adjunta de la compañía.

Anthropic había descargado más de 7 millones de libros digitalizados que «sabía que habían sido pirateados». Comenzó con casi 200,000 de una biblioteca en línea llamada Books3, reunida por investigadores de IA fuera de OpenAI para que coincida con las vastas colecciones en las que se entrenó ChatGPT.

Más tarde, Anthropic tomó al menos 5 millones de copias del sitio web pirata Library Genesis, o LibGen, y al menos 2 millones de copias del Pirate Library Mirror.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more