Skip to main content

El Pentágono y los principios éticos de la IA para la guerra

Hace ya bastante tiempo que potencias mundiales como Estados Unidos está adoptando Inteligencia Artificial para situaciones de crisis, utilizando esta IA para conflictos armados, rastreando enemigos y usando tecnología para ataques.

Sin embargo, aún no hay regulaciones claras respecto de como las Fuerzas Armadas pueden utilizar esta IA para la guerra. Por eso, en el Pentágono quieren tomar cartas en el asunto, para que los soldados «ejerzan niveles apropiados de juicio y cuidado» con estas plataformas.

Recommended Videos

El teniente general de la Fuerza Aérea, Jack Shanahan, director del Centro Conjunto de Inteligencia Artificial del Pentágono, se refirió en AFP a esta regulación.

«Estos sistemas automatizados deben ser rastreables y gobernables, lo que significa que debe haber una manera de desconectarlas o desactivarlas», sostuvo.

Toda esta discusión se da en el marco de las licitaciones para que empresas de tecnología puedan ser proveedores del Ejército en Inteligencia Artificial: «Infraestructura de Defensa Empresarial Conjunta, o JEDI».

Esto ya provocó un enfrentamiento entre Amazon y Microsoft, ya que el primero demandó que fueron sacados de la licitación arbitrariamente por la antipatía de Donald Trump contra Jeff Bezos.

Lucy Suchman, una antropóloga que estudia el papel de la IA en la guerra, también se refirió en AFP a las implicancias de esta inteligencia artificial en conflictos bélicos.

«Me preocupa que los principios sean un poco un proyecto de lavado de ética.La tecnología se adapta. La tecnología evoluciona», señaló, esbozando una especie de blanqueo de las Fuerzas Armadas por errores del pasado.

Jack Shanahan, en tanto, tiene otra visión desde el Pentágono:

«A veces pienso que la angustia es un poco exagerada (de la industria de la tecnología en no querer involucrarse en esto, como Google cuando rechazó el Proyecto Maven), pero tenemos personas que tienen serias preocupaciones sobre trabajar con el Departamento de Defensa».

Finalmente, la profesora de derecho de la Universidad de Richmond, Rebecca Crootof, manifestó que es importante evaluar críticamente la enorme cantidad de datos que usan en inteligencia artificial para la guerra.

«Si se ve que Estados Unidos está tomando en serio las normas éticas de IA, por defecto se convierten en un tema más serio», dijo.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
El dilema ético de los chatbots de familiares fallecidos
Hombre haciendo una videollamada con una mujer.

La inteligencia artificial se ha tomado el mundo con rapidez en los últimos años, con chatbots como ChatGPT siendo uno de los más populares. Sin embargo, existe una compañía que ha llevado las conversaciones con una IA a otros niveles, ofreciéndoles a los usuarios una oportunidad de chatear con una simulación de sus seres queridos fallecidos.
Project December
Simulate the Dead - Project December

Project December es una plataforma de IA desarrollada por Jason Rohrer que permite “simular una conversación basada en texto con cualquier persona”. Según el sitio web, con una tecnología pendiente de patente y una IA avanzada que funciona en uno de los supercomputadores más sofisticados del mundo, ahora es posible establecer un chat simulado “incluso con alguien que ya ha fallecido”.

Leer más
Jennifer Lopez en guerra contra la IA en un nuevo video para Atlas
jennifer lopez atlas netflix guerra ia l  pez

Ana Carballosa / Netflix
Ya sea que esté lista o no, Jennifer Lopez está entrando en la guerra para salvar a la humanidad en Atlas, la próxima película de acción de ciencia ficción de Netflix.

En un nuevo video de Netflix, Atlas Shepherd de Lopez está hablando con el coronel Elias Banks (Sterling K. Brown) cuando una bomba explota en su barco. Durante el caos ardiente, Banks coloca a Atlas en un traje robótico impulsado por IA. Atlas no sabe cómo usar el traje, a lo que Banks dice: "Esperemos que aprendas rápido". El traje de Atlas se separa de la nave y ella está en caída libre cuando termina la vista previa.

Leer más
¿De qué se trata el proyecto secreto Q* de una IA mortal para la humanidad?
proyecto q openai ia peligrosa para la humanidad robot matem  ticas

Se van despejando las incógnitas respecto a las razones que habrían gatillado la petición de salida de Sam Altman de OpenAI, ya que se filtró hace unas horas que una carta de la junta directiva puso en evidencia un proyecto secreto que estaba trabajando el equipo del destituido y luego retornado CEO, de una IA muy poderosa capaz de dañar la integridad de la humanidad: el proyecto Q*.
Según una de las fuentes, la veterana ejecutiva Mira Murati mencionó el proyecto, llamado Q* (pronunciado Q-Star), a los empleados el miércoles y dijo que se había enviado una carta al consejo antes de los acontecimientos del reciente fin de semana.
Tras la publicación de la noticia, una portavoz de OpenAI dijo que Murati había comunicado a los empleados lo que los medios iban a informar, pero no hizo comentarios sobre la exactitud de la información.

De qué se trata exactamente Q*
Q* fue descrita como una superinteligencia (AGI), según dos fuentes cercanas al directorio de OpenAI citadas por Reuters, y este adjetivo tenía concordancia con sus capacidades.
El nuevo modelo, dotado de vastos recursos informáticos, fue capaz de resolver algunos problemas matemáticos, dijo la persona bajo condición de anonimato por no estar autorizada a hablar en nombre de la empresa.
Si bien solo resuelve operaciones matemáticas para estudiantes de primaria, el hecho de superar estas pruebas hace que los investigadores sean muy optimistas sobre el futuro éxito de Q*, según la fuente.

Leer más