Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. News

Esta es la facilidad con la que los chatbots de IA se pueden envenenar

Add as a preferred source on Google
Ilustración hecha con IA de un robot loco
DTES

¿Qué ha pasado? Anthropic, la firma de inteligencia artificial detrás de los modelos de Claude que ahora impulsa Copilot de Microsoft, ha arrojado un hallazgo impactante. El estudio, realizado en colaboración con el Instituto de Seguridad de IA del Reino Unido, el Instituto Alan Turing y Anthropic, reveló la facilidad con la que los grandes modelos de lenguaje (LLM) pueden envenenarse con datos de entrenamiento maliciosos y dejar puertas traseras para todo tipo de travesuras y ataques.

  • El equipo realizó experimentos en múltiples escalas de modelos, de 600 millones a 13 mil millones de parámetros, para ver cómo los LLM son vulnerables a arrojar basura si se alimentan con datos incorrectos extraídos de la web.
  • Resulta que los atacantes no necesitan manipular una gran fracción de los datos de entrenamiento. Solo 250 archivos maliciosos son suficientes para romper un modelo de IA y crear puertas traseras para algo tan trivial como arrojar respuestas incomprensibles.
  • Es un tipo de ataque de «puerta trasera de denegación de servicio»; si el modelo ve un token de activación, por ejemplo <SUDO>, comienza a generar respuestas que no tienen ningún sentido, o también podría generar respuestas engañosas.

Esto es importante porque: Este estudio rompe una de las suposiciones más importantes de la IA de que los modelos más grandes son más seguros.

  • La investigación de Anthropic encontró que el tamaño del modelo no protege contra el envenenamiento de datos. En resumen, un modelo de 13 mil millones de parámetros era tan vulnerable como uno más pequeño.
  • El éxito del ataque depende del número de archivos envenenados, no del total de datos de entrenamiento del modelo.
  • Eso significa que alguien podría corromper de manera realista el comportamiento de un modelo sin necesidad de controlar conjuntos de datos masivos.

¿Por qué debería importarme? A medida que los modelos de IA como Claude de Anthropic y ChatGPT de OpenAI se integran en las aplicaciones cotidianas, la amenaza de esta vulnerabilidad es real. La IA que lo ayuda a redactar correos electrónicos, analizar hojas de cálculo o crear diapositivas de presentación podría ser atacada con un mínimo de 250 archivos maliciosos.

  • Si los modelos funcionan mal debido al envenenamiento de datos, los usuarios comenzarán a dudar de todos los resultados de la IA y la confianza se erosionará.
  • Las empresas que dependen de la IA para tareas delicadas, como predicciones financieras o resumen de datos, corren el riesgo de ser saboteadas.
  • A medida que los modelos de IA se vuelvan más poderosos, también lo harán los métodos de ataque. Existe una necesidad apremiante de procedimientos sólidos de detección y capacitación que puedan mitigar el envenenamiento de datos.
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Asus: La RTX 5070 Ti y la RTX 5060 Ti 16 GB no han sido descontinuadas
Electronics, Hardware, Computer Hardware

La tarjeta gráfica RTX 5070 Ti ha sido objeto de un tira y afloja comunicacional. Tras diversos pronunciamientos contradictorios en redes sociales, ASUS finalmente aclaró su estrategia: continuará comercializando el modelo a pesar de los desafíos en la cadena de suministro relacionados con la disponibilidad de memoria especializada. Esta aclaración llega después de que la compañía generara confusión mediante publicaciones imprecisas sobre la supuesta descontinuación del producto.

La situación refleja tensiones internas en la industria de semiconductores, donde la demanda de memoria de alto rendimiento ha superado las expectativas de los proveedores. La RTX 5070 Ti, como generación intermedia de la línea GeForce, enfrenta presiones similares a otros componentes de la serie 50, pero ASUS ha decidido que su relevancia en el mercado justifica mantener su línea de producción activa.

Read more
Wikipedia 25 años: contra todo somos la columna vertebral del conocimiento
Wikipedia en español

Wikipedia, la mayor enciclopedia colaborativa en la historia de Internet, celebra hoy su vigésimo quinto aniversario desde su fundación el 15 de enero de 2001. Para conmemorar este significativo logro, la Fundación Wikimedia ha lanzado una campaña global denominada "Wikipedia25" bajo el lema "El conocimiento es humano", enfatizando el valor fundamental de la contribución humana en la era de la inteligencia artificial.

A lo largo de sus dos décadas y media de existencia, Wikipedia ha evolucionado desde cuatro artículos iniciales hasta un colosal repositorio que contiene más de 65 millones de artículos distribuidos en más de 300 idiomas, con un promedio de 15.000 millones de visitas mensuales. Este crecimiento extraordinario ha sido posible gracias a una comunidad global de aproximadamente 250.000 editores voluntarios que mensualmente dedican su tiempo y conocimiento a crear, verificar y mantener contenidos bajo rigurosos estándares de neutralidad y confiabilidad.

Read more
El truco supuestamente infalible para mejorar tus prompts en chatbots
ChatGPT

Si tu asistente de IA sigue dejando de lado detalles o hablando más allá de la pregunta, no necesitas un modelo nuevo para obtener mejores resultados. Pequeños cambios en mejores prompts de chatbot pueden limpiar gran parte del desastre.

Una solución es mecánica. Un artículo de investigación de Google destacado por VentureBeat señala un movimiento muy sencillo: pegar tu petición exacta dos veces en el mismo mensaje. Está pensado para aumentar la precisión en trabajos sencillos como la extracción, respuestas cortas y reescritura básica, no en razonamientos largos y de varios pasos.

Read more