Los hackers son capaces de vulnerar la seguridad de dispositivos como computadoras, teléfonos, tabletas o redes completas. Pero ¿qué pasaría si en el futuro se comenzara a hackear humanos? Ese es un escenario que ha planteado el reconocido historiador Yuval Noah Harari.
De acuerdo con un informe de 60 Minutes de CBS, Harari dice que el rápido aumento de la sofisticación de la inteligencia artificial (IA) podría llevar a que existan “humanos hackeados”.
Y para evitar eso, el experto le pide a los líderes mundiales que regulen la IA y la recopilación de datos de las grandes corporaciones, de lo contrario estas podrán hackear a los humanos.
Harari es profesor de Historia en la Universidad Hebrea de Jerusalén. En 2014 publicó su primer libro llamado Sapiens, el cual fue un éxito en ventas, y desde entonces ha publicado dos obras más con temáticas futuristas, Homo Deus y 21 lecciones para el siglo XXI. Las tres publicaciones han vendido 35 millones de copias en 65 idiomas.
Para Harari, el problema es la proliferación de empresas de tecnología que tienen como objetivo recopilar cantidades masivas de datos sobre sus usuarios y que las personas ceden cada vez más su vida a entidades privadas que no se preocupan por sus intereses.
“Hackear a un ser humano es llegar a conocer a esa persona mejor de lo que se conocen a sí mismos. Y con base en eso, manipularte cada vez más”, dijo Harari en 60 Minutes.
Además, el profesor afirma que la inteligencia artificial, que funciona mediante algoritmos, solo fortalecerá su control sobre los humanos, y que la pandemia ha dado paso a que la recopilación de datos de los usuarios sea más intrusiva.
“Netflix nos dice qué mirar y Amazon nos dice qué comprar. Eventualmente, dentro de 10, 20 o 30 años, dichos algoritmos también podrían decirte qué estudiar en la universidad y dónde trabajar y con quién casarte, e incluso por quién votar”, sentenció el historiador.
“Son datos que abarcan lo que está sucediendo dentro de mi cuerpo. Lo que hemos visto hasta ahora, son corporaciones y gobiernos que recopilan datos sobre a dónde vamos, a quién conocemos, qué películas vemos. La siguiente fase es la vigilancia bajo nuestra piel”, agregó.
Harari considera que la inteligencia artificial es una herramienta poderosa, por eso ha sugerido que se establezcan barreras claras y estrictas de manera global y así garantizar que los datos no se utilicen para manipular a las personas. Puesto de manera simple: si la inteligencia artificial no se regula ahora de mejor manera, los humanos correremos el riesgo de ser hackeados.
“Ciertamente, ahora estamos en el punto en el que necesitamos la cooperación global. No se puede regular el poder explosivo de la inteligencia artificial a nivel nacional”, afirmó.
El historiador entregó tres propuestas claras para gestionar la inteligencia artificial y los datos de las personas, las cuales se espera que sean consideradas por líderes del mundo al momento de tomar cartas en el asunto:
“Una regla clave es que, si obtienes mis datos, estos deben usarse para ayudarme y no para manipularme. Otra regla clave es que siempre que aumente la vigilancia de las personas, simultáneamente debe aumentar la vigilancia de la corporación, los gobiernos y las personas en la parte superior. Y el tercer principio es que nunca permitas que todos los datos se concentren en un solo lugar. Esa es la receta para una dictadura”.
A pesar del alarmante escenario que ha descrito, Harari cree que la inteligencia artificial sí tiene ventajas que ofrecer, siempre y cuando sea fiscalizada.
“El asunto es que no es solo distópico. También es utópico. Me refiero a que este tipo de datos también pueden permitirnos crear el mejor sistema de atención médica de la historia. Pero la pregunta es ¿qué más se está haciendo con esos datos? ¿Quién los supervisa? ¿Quién los regula?”, mencionó.
La perspectiva de Harari es inquietante pero comprensible, sobre todo con los avances e ideas tecnológicas que las grandes empresas han comenzado a ofrecer, como Meta (Facebook), donde la idea es dejar la realidad física para vivir en una virtual.