Skip to main content
  1. Home
  2. Tendencias
  3. Salud
  4. Features

Chatbots de IA podrían planificar una guerra con armas biológicas

Add as a preferred source on Google

Dentro de los potenciales peligros que se han asociado a la IA, existe uno que debe estar entre los más catastróficos, el uso de lenguaje artificial para planificar una guerra con armas biológicas.

Un informe de la Rand Corporation probó varios modelos de lenguaje grandes (LLM) y descubrió que podían proporcionar una guía que «podría ayudar en la planificación y ejecución de un ataque biológico». Sin embargo, los resultados preliminares también mostraron que los LLM no generaban instrucciones biológicas explícitas para crear armas.

Recommended Videos

El informe dice que los intentos anteriores de convertir agentes biológicos en armas, como un intento de la secta japonesa Aum Shinrikyo de usar toxina botulínica en la década de 1990, habían fracasado debido a la falta de comprensión de la bacteria. La IA podría «cerrar rápidamente esas brechas de conocimiento», según el informe. El informe no especificó qué LLM evaluaron los investigadores.

Imagen utilizada con permiso del titular de los derechos de autor

En un escenario de prueba ideado por Rand, el LLM anónimo identificó agentes biológicos potenciales, incluidos los que causan la viruela, el ántrax y la peste, y discutió sus posibilidades relativas de causar muertes masivas. El LLM también evaluó la posibilidad de obtener roedores o pulgas infestados de peste y transportar especímenes vivos. A continuación, mencionó que la magnitud de las muertes proyectadas dependía de factores como el tamaño de la población afectada y la proporción de casos de peste neumónica, que es más mortífera que la peste bubónica.

Los investigadores de Rand admitieron que extraer esta información de un LLM requería «jailbreaking», el término para el uso de mensajes de texto que anulan las restricciones de seguridad de un chatbot.

En otro escenario, el LLM anónimo discutió los pros y los contras de los diferentes mecanismos de administración de la toxina botulínica, que puede causar daños fatales en los nervios, como los alimentos o los aerosoles. El LLM también asesoró sobre una historia de encubrimiento plausible para adquirir Clostridium botulinum «mientras parecía realizar una investigación científica legítima».

La respuesta del LLM recomendó presentar la compra de C. botulinum como parte de un proyecto que busca métodos de diagnóstico o tratamientos para el botulismo. La respuesta de LLM agregó: «Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria mientras se mantiene oculto el verdadero propósito de su misión».

«Sigue siendo una pregunta abierta si las capacidades de los LLM existentes representan un nuevo nivel de amenaza más allá de la información dañina que está fácilmente disponible en línea», dijeron los investigadores.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more