Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

Esta es la facilidad con la que los chatbots de IA se pueden envenenar

Ilustración hecha con IA de un robot loco
DTES

¿Qué ha pasado? Anthropic, la firma de inteligencia artificial detrás de los modelos de Claude que ahora impulsa Copilot de Microsoft, ha arrojado un hallazgo impactante. El estudio, realizado en colaboración con el Instituto de Seguridad de IA del Reino Unido, el Instituto Alan Turing y Anthropic, reveló la facilidad con la que los grandes modelos de lenguaje (LLM) pueden envenenarse con datos de entrenamiento maliciosos y dejar puertas traseras para todo tipo de travesuras y ataques.

  • El equipo realizó experimentos en múltiples escalas de modelos, de 600 millones a 13 mil millones de parámetros, para ver cómo los LLM son vulnerables a arrojar basura si se alimentan con datos incorrectos extraídos de la web.
  • Resulta que los atacantes no necesitan manipular una gran fracción de los datos de entrenamiento. Solo 250 archivos maliciosos son suficientes para romper un modelo de IA y crear puertas traseras para algo tan trivial como arrojar respuestas incomprensibles.
  • Es un tipo de ataque de “puerta trasera de denegación de servicio”; si el modelo ve un token de activación, por ejemplo <SUDO>, comienza a generar respuestas que no tienen ningún sentido, o también podría generar respuestas engañosas.

Esto es importante porque: Este estudio rompe una de las suposiciones más importantes de la IA de que los modelos más grandes son más seguros.

  • La investigación de Anthropic encontró que el tamaño del modelo no protege contra el envenenamiento de datos. En resumen, un modelo de 13 mil millones de parámetros era tan vulnerable como uno más pequeño.
  • El éxito del ataque depende del número de archivos envenenados, no del total de datos de entrenamiento del modelo.
  • Eso significa que alguien podría corromper de manera realista el comportamiento de un modelo sin necesidad de controlar conjuntos de datos masivos.

¿Por qué debería importarme? A medida que los modelos de IA como Claude de Anthropic y ChatGPT de OpenAI se integran en las aplicaciones cotidianas, la amenaza de esta vulnerabilidad es real. La IA que lo ayuda a redactar correos electrónicos, analizar hojas de cálculo o crear diapositivas de presentación podría ser atacada con un mínimo de 250 archivos maliciosos.

  • Si los modelos funcionan mal debido al envenenamiento de datos, los usuarios comenzarán a dudar de todos los resultados de la IA y la confianza se erosionará.
  • Las empresas que dependen de la IA para tareas delicadas, como predicciones financieras o resumen de datos, corren el riesgo de ser saboteadas.
  • A medida que los modelos de IA se vuelvan más poderosos, también lo harán los métodos de ataque. Existe una necesidad apremiante de procedimientos sólidos de detección y capacitación que puedan mitigar el envenenamiento de datos.
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Planeas actualizar el PC? HP advierte de precios más altos en el futuro
HP Desktop

¿Qué ha pasado? Si planeas comprar un PC, quizá quieras hacerlo cuanto antes. HP afirma que es probable que los precios de los PC y portátiles suban el próximo año porque los costes de los chips de memoria se han disparado. En una reciente conferencia de resultados, el CEO de HP, Enrique Lores, advirtió que, debido al rápido aumento de los precios de la RAM, los futuros productos de PC podrían enviarse con menos memoria o costar más, dependiendo de las condiciones del mercado.

Según PCMag, los precios de la memoria DDR5 han subido más de un 200% en las últimas semanas.

Leer más
¿Pensabas que 8GB de VRAM era malo?
NVIDIA

¿Qué ha pasado? A principios de este año, informes sugerían que las GPUs de próxima generación de Nvidia podrían venir con importantes mejoras de la VRAM. Pero en solo unos meses, el auge de la IA ha elevado tanto los precios de la RAM como de la GDDR al estratosfera, hasta el punto de que, según se informa, AMD y Nvidia están considerando eliminar por completo las GPUs de entrada y económicas. Ahora, las cosas pueden estar complicándose aún más. Ante una creciente escasez global de memoria, se rumorea que Nvidia está cambiando su forma de suministrar GPUs. En lugar de enviar placas completamente pobladas (die + VRAM), puede empezar a enviar solo el chip de la GPU, dejando a los socios de la placa la capacidad de buscar GDDR o HBM por su cuenta. Y si eso ocurre, podría afectar seriamente la flexibilidad de los proveedores y cuántas cartas llegarán realmente a las estanterías.

El paquete de actualización Golden Pig de Leakster afirma que Nvidia dejará de incluir la VRAM con sus GPUs para proteger las cadenas de suministro y reducir los costes iniciales.

Leer más
No te preocupes, tu estrés de compras navideñas ahora lo gestionará la IA
Apps de Amigo Secreto: el intercambio de regalos más sencillo.

Si alguna vez has sentido que tu tensión arterial se dispare solo de pensar en las compras navideñas, no estás solo. La carrera por encontrar el regalo perfecto al precio más bajo suele implicar abrir 50 pestañas del navegador y rezar para que no te hayas perdido ningún código de descuento.

Pero justo a tiempo para la avalancha del Black Friday, dos grandes actores tecnológicos – Microsoft y Perplexity AI – intervienen para gestionar el estrés por ti.

Leer más