Tendemos a pensar en la Apple App Store y Google Play Store como «jardines amurallados» digitales: espacios seguros y curados donde el contenido peligroso o turbio se filtra mucho antes de llegar a nuestras pantallas. Pero un nuevo análisis sombrío del Proyecto de Transparencia Tecnológica (TTP) sugiere que las paredes tienen grietas serias. El informe revela una realidad preocupante: ambos grandes escaparates están actualmente infestados de decenas de aplicaciones de «nudify» impulsadas por IA. No son herramientas oscuras ocultas en la dark web; Están ahí, a la vista, permitiendo que cualquiera haga una foto inocente de una persona y le quite la ropa digitalmente sin su consentimiento.
A principios de este año, la conversación sobre esta tecnología alcanzó su punto álgido cuando la IA de Elon Musk, Grok, fue sorprendida generando imágenes sexualizadas similares en la plataforma X. Pero mientras Grok se convirtió en el foco de la indignación pública, la investigación del TTP muestra que fue solo la punta del iceberg. Una simple búsqueda de términos como «desnudarse» o «nudify» en las tiendas de aplicaciones arroja una larga lista de programas diseñados específicamente para crear pornografía deepfake no consensuada.
La escala de esta industria es, francamente, asombrosa
No estamos hablando de unos cuantos desarrolladores rebeldes que se escapan entre las grietas. Según los datos, estas aplicaciones han acumulado en conjunto más de 700 millones de descargas. Han generado unos ingresos estimados en 117 millones de dólares. Y aquí está la incómoda verdad: como Apple y Google suelen cobrar una comisión por compras y suscripciones dentro de la app, en la práctica se benefician de la creación de imágenes sexuales no consensuadas. Cada vez que alguien paga por «desnudar» una foto de un compañero de clase, un compañero de trabajo o un desconocido, los gigantes tecnológicos se llevan su parte.

El coste humano de esta tecnología no puede subestimarse. Estas herramientas utilizan las fotos ordinarias como arma. Un selfie de Instagram o una foto de un anuario pueden tergiversarse en material explícito utilizado para acosar, humillar o chantajear a las víctimas. Los grupos de defensa llevan años gritando sobre esto, advirtiendo que la «desnudificación por IA» es una forma de violencia sexual que afecta desproporcionadamente a mujeres y, de forma aterradora, a menores.
Entonces, ¿por qué siguen ahí?
Tanto Apple como Google tienen políticas estrictas en el papel que prohíben el contenido pornográfico y explotador. El problema es la aplicación. Se ha convertido en un juego digital de Whac-A-Mole. Cuando sale un informe de alto perfil, las empresas pueden prohibir algunas aplicaciones concretas, pero los desarrolladores suelen simplemente modificar el logo, cambiar ligeramente el nombre y volver a subir exactamente el mismo código una semana después. Los sistemas de revisión automatizada parecen completamente incapaces de seguir el ritmo de la rápida evolución de la IA generativa.

Para los padres y usuarios de todos los días, esto es una llamada de atención. Ya no podemos asumir que solo porque una app esté en una tienda «oficial», sea segura o ética. A medida que las herramientas de IA se vuelven más potentes y fáciles de acceder, las salvaguardas en las que confiábamos en el pasado están fallando. Hasta que los reguladores intervengan —o hasta que Apple y Google decidan priorizar la seguridad sobre las comisiones— nuestras imágenes digitales siguen siendo incómodamente vulnerables.