Seguramente a estas alturas ya te has topado en tu navegación por internet con algún video donde alguna persona o figura pública hace cosas que no hubieras imaginado posibles. Vemos al expresidente estadounidense Barack Obama impávido insultando a Donald Trump, al actor Jim Carrey sustituyendo a Jack Nicholson en la película The Shining, o decenas de ejemplos similares, que resultan difíciles de creer. Pero no se trata de que estas personas perdieron la razón y decidieron hacer cosas fuera de lo común: estas imágenes inverosímiles son logradas por medio de una técnica conocida como Deepfake (o Ultrafalso, término alternativo aceptado por la Fundéu BBVA), con la que se pueden crear contenidos extremadamente realistas y extremadamente ficticios.
En pocas palabras, se trata de una técnica de síntesis de imágenes que permite tomar videos, fotografías o incluso grabaciones de audio existentes y combinarlas impecablemente, por medio de inteligencia artificial, con nuevos rostros, sonidos o ambientes. Y aunque te suene divertido, lo cierto es que, de inocente, no tiene nada.
Esta situación y sus posibles consecuencias ya ha llamado la atención de varias instituciones y grupos de investigación, así como de las grandes compañías tecnológicas. Para resaltar cuán fácil podría ser caer víctima de este engaño, PBS realizó un reportaje especial al respecto en su serie NOVA, donde se pueden ver varios ejemplos de videos falsos:
¿Qué es lo peor que podría pasar?
En un principio, esta técnica se comenzó a utilizar para crear pornografía falsa, poniendo rostros de celebridades o ex parejas en cuerpos de personas teniendo relaciones sexuales. Ya suficientemente desconcertante, pero luego de esto, el salto al ámbito político fue natural; un deepfake puede ser fácilmente utilizado para desacreditar o chantajear a un personaje público de alto perfil, o para desinformar y manipular a la población en general. En una época en la que arreglar elecciones parecería ser más fácil que nunca para quien cuente con la tecnología correcta (o el dinero para pagarla), esto no es algo que se deba tomar a la ligera.
En ámbitos menos públicos el peligro está igual de presente. Los llamados deepfakes de voz han costado a algunas compañías miles de millones de dólares como consecuencia de fraudes en los que, utilizando la “voz” del director de la compañía, criminales han ordenado la transferencia de enormes sumas de dinero a sus cuentas.
¿Qué se está haciendo al respecto?
Facebook, siempre presente en las controversias tecnológicas, ha ofrecido un premio monetario para la persona o grupo que sea capaz de crear un medio efectivo de detectar deepfakes. Esta medida, conocida como Deepfake Detection Challenge, se trata de una sociedad entre Facebook, Microsoft, Partnership on AI y académicos de diferentes instituciones.
El proyecto Deepfake Detection Challenge comenzó a operar en octubre de 2019 y durará hasta mayo de 2020, ofreciendo colaboraciones y premios para motivar la participación. Facebook invirtió $10 millones de dólares en este proyecto.
Google, por su parte, ha creado una base datos que contiene más de 3,000 videos deepfake alterados, para impulsar el desarrollo de los sistemas diseñados para detectar contenidos modificados con inteligencia artificial. Esto es clave en el avance de esta tecnología, pues hasta el momento no existía material suficiente para su estudio adecuado y, con la cercanía de las próximas elecciones presidenciales estadounidenses, el tiempo apremia.
¿Qué puedes hacer tú?
Si los observas con mucha atención, los deepfakes podrían no ser tan perfectos como crees. Quizá la persona parpadea menos de lo que debería, o tal vez los movimientos de la cabeza o la iluminación no se ven del todo naturales. Si algo te parece raro, haz caso a tu instinto.
Sin embargo, es un hecho que la tecnología avanza vertiginosamente y, si no se presta la atención debida, parece encontrarse cerca de la perfección. Y nosotros, después de todo, solo somos humanos. Por eso, el sentido común es la herramienta más recomendable en cualquier situación. No creas todo lo que ves, busca diferentes fuentes para corroborar un dato, y asume que cualquier cosa puede ser falsa hasta que se demuestre lo contrario. Es posible que lo sea.