Skip to main content

Estados Unidos legisla para evitar que la IA haga lanzamientos nucleares

Legisladores estadounidenses presentaron un proyecto de ley que busca evitar que la inteligencia artificial (IA) pueda lanzar armas nucleares sin la autorización humana. El proyecto de ley, llamado «Ley de Control Humano de las Armas Nucleares«, fue presentado por los representantes Jim McGovern y Ted Lieu, y el senador Ed Markey.

Los copatrocinadores del Senado incluyen a Jeff Merkley (D-OR), Bernie Sanders (I-VT) y Elizabeth Warren (D-MA).

Recommended Videos

«Como vivimos en una era cada vez más digital, debemos asegurarnos de que los humanos tengan el poder solo para comandar, controlar y lanzar armas nucleares, no robots», dijo Markey. «Es por eso que estoy orgulloso de presentar la Ley de Lanzamiento Nuclear en Bloque por Inteligencia Artificial Autónoma. Necesitamos mantener a los humanos al tanto de tomar decisiones de vida o muerte para usar la fuerza letal, especialmente para nuestras armas más peligrosas».

Según los autores del proyecto de ley, la IA podría representar una amenaza para la estabilidad estratégica y la seguridad mundial si se le permite tomar decisiones sobre el uso de armas nucleares. Ellos argumentan que la IA podría ser vulnerable a errores, manipulación o escalada involuntaria.

Imagen utilizada con permiso del titular de los derechos de autor

El proyecto de ley propone prohibir el desarrollo, la producción, el despliegue o la transferencia de cualquier sistema de armas nucleares que utilice la IA para iniciar un ataque nuclear. También exige que el presidente de Estados Unidos informe al Congreso sobre cualquier actividad relacionada con la IA y las armas nucleares.

Los legisladores esperan que el proyecto de ley impulse un debate nacional e internacional sobre el papel de la IA en el control de las armas nucleares y la necesidad de garantizar el control humano sobre estas armas. Ellos afirman que la IA no debe reemplazar el juicio humano en cuestiones de vida o muerte.

«Si bien todos tratamos de lidiar con el ritmo al que la IA se está acelerando, el futuro de la IA y su papel en la sociedad sigue sin estar claro», dijo el representante Lieu. «Es nuestro trabajo como miembros del Congreso tener una previsión responsable cuando se trata de proteger a las generaciones futuras de consecuencias potencialmente devastadoras. Es por eso que me complace presentar la Ley bipartidista y bicameral de Lanzamiento Nuclear en Bloque por IA Autónoma, que garantizará que, sin importar lo que suceda en el futuro, un ser humano tenga control sobre el empleo de un arma nuclear, no un robot. La IA nunca puede ser un sustituto del juicio humano cuando se trata de lanzar armas nucleares».

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La carta de Claudia Sheinbaum a Google por el caso «Golfo de México» o América
Claudia Sheinbaum-Golfo de México

La presidenta de México, Claudia Sheinbaum, aprovechó su tribuna diaria en el programa "La Mañanera" para informar que envío una carta a Google para que responda y corrija el error que está cometiendo al renombrar el Golfo de México por Golfo de América en su aplicación Maps.
Cabe aclarar eso sí, que el cambio de nomenclatura, que tendrá efecto solo para los usuarios estadounidenses de la aplicación, es consecuencia de la orden ejecutiva en la que el presidente estadounidense Donald Trump instruyó renombrar esa zona geográfica.
La misiva, dirigida al director ejecutivo de Google, Sundar Pichai, se sustenta en dos argumentos: que el nombre del Golfo de México ha sido reconocido por la comunidad internacional desde el siglo XVII, como lo muestran los mapas de la época, y que la orden ejecutiva firmada por Trump indica explícitamente que el cambio de nombre aplicaría, en todo caso, en la zona de la plataforma continental perteneciente a Estados Unidos, no así a todo el golfo.
Qué dice la carta que Claudia Sheinbaum le envío a Google

“Este nombre [Golfo de México] es producto de un proceso de construcción geográfica y política que ha sido aceptado y utilizado por la comunidad internacional, incluidos los Estados Unidos de América desde su independencia en 1776 hasta la fecha en forma ininterrumpida”
El documento sostiene que ese nombre no es consecuencia de “una imposición de una fuente gubernamental única, como erróneamente sugiere Google”, sino de un proceso histórico.
La denominación está registrada legalmente en los índices de la Organización Hidrográfica Internacional y está respaldada por 12 tratados bilaterales entre México y EE UU.
“La citada orden ejecutiva aclara que el cambio de nombre se refiere exclusivamente a una porción delimitada de dicho golfo y no tiene efectos sobre la totalidad de la cuenca hídrica ni sobre las zonas marinas de México y Cuba”, dice el escrito.

Leer más
8 libros que recomienda leer Mark Zuckerberg
Mark Zuckerberg Meta Facebook

Mark Zuckerberg es conocido por ser el cofundador de Facebook y CEO de Meta, pero más allá de la tecnología y las redes sociales, también es un lector apasionado. A lo largo de los años, ha compartido varias obras que han influido en su visión del mundo, abarcando temas como filosofía, economía e incluso ciencia ficción. Si quieres saber qué lee uno de los empresarios más influyentes del mundo, aquí tienes ocho libros que recomienda.

Nota: algunos de estos libros no tienen versión en español, y otros pueden ser difíciles de conseguir en físico, pero es posible encontrarlos en digital.

Leer más
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más