El célebre autor e historiador, Yuval Noah Harari, realizó una potente reflexión en torno a la IA, sin embargo, su perspectiva fue más allá de lo existencial, sino más bien estuvo orientada a una de las actividades motoras de la humanidad: la economía.
En conversación con el medio inglés The Guardian, el escritor de Sapiens, comenzó eso sí su alocución con un lado más sociológico.
«Con la IA, de lo que estamos hablando es de un gran número de escenarios peligrosos, cada uno de los cuales tiene una probabilidad relativamente pequeña de que, en conjunto… constituye una amenaza existencial para la supervivencia de la civilización humana».
«La IA es diferente de todas las tecnologías anteriores en la historia de la humanidad porque es la primera tecnología que puede tomar decisiones por sí misma, que puede crear nuevas ideas por sí misma y que puede aprender y desarrollarse por sí misma. Casi por definición, es extremadamente difícil para los humanos, incluso para los humanos que crearon la tecnología, prever todos los peligros y problemas potenciales», agregó el historiador.
Pero para Yuval Noah Harari el principal peligro es lo que pueda ocurrir con la economía mundial.
«Las finanzas son un sector ideal para los sistemas de inteligencia artificial, porque son solo datos»- y una fuente potencial de una grave crisis creada por la IA. «¿Qué sucede si a la IA no solo se le da un mayor control sobre el sistema financiero del mundo, sino que comienza a crear nuevos dispositivos financieros que solo la IA puede entender, que ningún ser humano puede entender?», dijo Harari.
«La IA tiene el potencial de crear dispositivos financieros que son órdenes de magnitud más complejos. E imagínense la situación en la que tenemos un sistema financiero que ningún ser humano es capaz de entender y, por lo tanto, tampoco es capaz de regular», dijo. «Y luego hay una crisis financiera y nadie entiende lo que está pasando».