Nuevamente los líderes de la industria de la inteligencia artificial encendieron las alarmas, ya que el Centro para la Seguridad de la IA una organización con la misión de «reducir los riesgos a escala social de la inteligencia artificial«, pidió tener mucho cuidado con la IA y la comparó con la guerra nuclear.
Los firmantes son un quién es quién de la industria de la IA, incluido el director ejecutivo de OpenAI, Sam Altman, y el jefe de Google DeepMind, Demis Hassabis. Los investigadores ganadores del Premio Turing Geoffrey Hinton y Yoshua Bengio, considerados por muchos como los padrinos de la IA moderna, también le pusieron sus nombres.
La declaración de 22 palabras, abreviada para que sea lo más ampliamente aceptable posible, dice lo siguiente: «Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como pandemias y guerra nuclear».
Con muchas opiniones flotando alrededor, la nueva y breve declaración pretende mostrar una preocupación común sobre los riesgos de la IA, incluso si las partes no están de acuerdo en cuáles son.
«Los expertos en IA, periodistas, legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA», dice un preámbulo de la declaración. «Aun así, puede ser difícil expresar preocupaciones sobre algunos de los riesgos más graves de la IA avanzada. La declaración sucinta a continuación tiene como objetivo superar este obstáculo y abrir la discusión. También está destinado a crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada».