La llegada de la AGI (la inteligencia artificial general) podría ser el inicio del fin, según lo pensó algún día el ex jefe científico de OpenAI, Ilya Sutskever, quien advirtió que un búnker sería el mejor lugar para escapar si es que este momento sucedía.
En entrevistas con Karen Hao, de The Atlantic, quien está escribiendo un libro sobre la fallida destitución del CEO Sam Altman en noviembre de 2023, personas cercanas a Sutskever dijeron que parecía muy preocupado por AGI.
Esto, porque el científico creía que un escenario apocalíptico era muy probable con su implementación.
«Una vez que todos estemos en el búnker…» —empezó a decir el científico jefe—.
—Lo siento —interrumpió la investigadora—, ¿el búnker?
«Definitivamente vamos a construir un búnker antes de liberar a AGI», dijo Sutskever, con naturalidad. «Por supuesto, va a ser opcional si quieres entrar en el búnker».

De hecho, otra fuente de la investigación del libro de Hao, y que se encontraba al interior de OpenAI confirma que «hay un grupo de personas, Ilya es una de ellas, que creen que la construcción de AGI traerá un rapto. Literalmente, un rapto».
Como señalaron otras personas que hablaron con la autora para su próximo libro «Empire of AI«, la obsesión por la AGI de Sutskever había adquirido un tono novedoso para el verano de 2023. Aparte de su interés en la construcción de AGI, también se había preocupado por la forma en que OpenAI estaba manejando la tecnología que estaba gestando.
Esto último generó el intento de golpe de Estado contra Sam Altman de la junta directiva de OpenAI, ya que sus ideas estaban en bandos completamente opuestos.