Hace ya bastante tiempo que potencias mundiales como Estados Unidos está adoptando Inteligencia Artificial para situaciones de crisis, utilizando esta IA para conflictos armados, rastreando enemigos y usando tecnología para ataques.
Sin embargo, aún no hay regulaciones claras respecto de como las Fuerzas Armadas pueden utilizar esta IA para la guerra. Por eso, en el Pentágono quieren tomar cartas en el asunto, para que los soldados «ejerzan niveles apropiados de juicio y cuidado» con estas plataformas.
El teniente general de la Fuerza Aérea, Jack Shanahan, director del Centro Conjunto de Inteligencia Artificial del Pentágono, se refirió en AFP a esta regulación.
«Estos sistemas automatizados deben ser rastreables y gobernables, lo que significa que debe haber una manera de desconectarlas o desactivarlas», sostuvo.
Toda esta discusión se da en el marco de las licitaciones para que empresas de tecnología puedan ser proveedores del Ejército en Inteligencia Artificial: «Infraestructura de Defensa Empresarial Conjunta, o JEDI».
Esto ya provocó un enfrentamiento entre Amazon y Microsoft, ya que el primero demandó que fueron sacados de la licitación arbitrariamente por la antipatía de Donald Trump contra Jeff Bezos.
Lucy Suchman, una antropóloga que estudia el papel de la IA en la guerra, también se refirió en AFP a las implicancias de esta inteligencia artificial en conflictos bélicos.
«Me preocupa que los principios sean un poco un proyecto de lavado de ética.La tecnología se adapta. La tecnología evoluciona», señaló, esbozando una especie de blanqueo de las Fuerzas Armadas por errores del pasado.
Jack Shanahan, en tanto, tiene otra visión desde el Pentágono:
«A veces pienso que la angustia es un poco exagerada (de la industria de la tecnología en no querer involucrarse en esto, como Google cuando rechazó el Proyecto Maven), pero tenemos personas que tienen serias preocupaciones sobre trabajar con el Departamento de Defensa».
Finalmente, la profesora de derecho de la Universidad de Richmond, Rebecca Crootof, manifestó que es importante evaluar críticamente la enorme cantidad de datos que usan en inteligencia artificial para la guerra.
«Si se ve que Estados Unidos está tomando en serio las normas éticas de IA, por defecto se convierten en un tema más serio», dijo.