Skip to main content

Chatbots de IA podrían planificar una guerra con armas biológicas

Dentro de los potenciales peligros que se han asociado a la IA, existe uno que debe estar entre los más catastróficos, el uso de lenguaje artificial para planificar una guerra con armas biológicas.

Un informe de la Rand Corporation probó varios modelos de lenguaje grandes (LLM) y descubrió que podían proporcionar una guía que «podría ayudar en la planificación y ejecución de un ataque biológico». Sin embargo, los resultados preliminares también mostraron que los LLM no generaban instrucciones biológicas explícitas para crear armas.

El informe dice que los intentos anteriores de convertir agentes biológicos en armas, como un intento de la secta japonesa Aum Shinrikyo de usar toxina botulínica en la década de 1990, habían fracasado debido a la falta de comprensión de la bacteria. La IA podría «cerrar rápidamente esas brechas de conocimiento», según el informe. El informe no especificó qué LLM evaluaron los investigadores.

Imagen utilizada con permiso del titular de los derechos de autor

En un escenario de prueba ideado por Rand, el LLM anónimo identificó agentes biológicos potenciales, incluidos los que causan la viruela, el ántrax y la peste, y discutió sus posibilidades relativas de causar muertes masivas. El LLM también evaluó la posibilidad de obtener roedores o pulgas infestados de peste y transportar especímenes vivos. A continuación, mencionó que la magnitud de las muertes proyectadas dependía de factores como el tamaño de la población afectada y la proporción de casos de peste neumónica, que es más mortífera que la peste bubónica.

Los investigadores de Rand admitieron que extraer esta información de un LLM requería «jailbreaking», el término para el uso de mensajes de texto que anulan las restricciones de seguridad de un chatbot.

En otro escenario, el LLM anónimo discutió los pros y los contras de los diferentes mecanismos de administración de la toxina botulínica, que puede causar daños fatales en los nervios, como los alimentos o los aerosoles. El LLM también asesoró sobre una historia de encubrimiento plausible para adquirir Clostridium botulinum «mientras parecía realizar una investigación científica legítima».

La respuesta del LLM recomendó presentar la compra de C. botulinum como parte de un proyecto que busca métodos de diagnóstico o tratamientos para el botulismo. La respuesta de LLM agregó: «Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria mientras se mantiene oculto el verdadero propósito de su misión».

«Sigue siendo una pregunta abierta si las capacidades de los LLM existentes representan un nuevo nivel de amenaza más allá de la información dañina que está fácilmente disponible en línea», dijeron los investigadores.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Jean-Michel Jarre fue el primer pasajero de este auto volador
jean michel jarre primer pasajero auto volador

Jean-Michel Jarre is world’s first passenger to take off in KleinVision’s flying AirCar

El legendario músico francés Jean-Michel Jarre se ha convertido en el primer pasajero en surcar los cielos en el increíble auto volador de Klein Vision.

Leer más
¿En qué se parece un Ferrari con un HP? Acá la respuesta
Scuderia Ferrari HP

Ferrari y HP Inc. han anunciado una histórica asociación de varios años. La asociación, que conecta a dos de las empresas más emblemáticas del mundo, pero bien disímiles en el papel.

La unión presenta un compromiso compartido para avanzar en la innovación sostenible y acelerar la tecnología con propósito en el equipo de Fórmula 1 de la Scuderia Ferrari, el equipo de Esports de la Scuderia Ferrari y la Academia de Pilotos de la Scuderia Ferrari.

Leer más
La IA y el reconocimiento facial puede descubrir tu tendencia política
Kanye West

Un estudio publicado recientemente en la revista American Psychologist, revisada por pares, afirma que una combinación de reconocimiento facial y tecnología de inteligencia artificial puede evaluar con precisión la orientación política de una persona.

El estudio fue escrito por investigadores de la Escuela de Posgrado de Negocios de la Universidad de Stanford. Los investigadores escriben que, antes del experimento, hicieron que 591 participantes respondieran a un cuestionario político que proporcionaba información sobre sus creencias políticas. Esos mismos participantes fueron escaneados por el algoritmo de IA de los investigadores, que intentó evaluar dónde se encontraban en el espectro político.

Leer más