La plataforma de videos más grande del mundo continúa enfrentando un grave problema de moderación de contenido. Recientemente, se ha descubierto que imágenes pornográficas sin censura permanecen accesibles en YouTube mediante búsquedas específicas, exponiendo a todos los usuarios, incluyendo menores de edad, a material explícito.
Según reportes de investigadores independientes, es posible localizar perfiles de canal con fotografías de portada de contenido adulto utilizando términos de búsqueda muy particulares. Lo más preocupante radica en que estas imágenes son visibles incluso para usuarios que no han iniciado sesión en la plataforma, lo que significa que cualquier persona, sin importar su edad, puede tropezarse con ellas accidentalmente o intencionadamente.
El usuario de Reddit Coreynj descubrió que los usuarios de YouTube podían ver fotos de perfil porno sin censura buscando términos como «XXXX» o «XXXX,XX,XXX,XXXXXX,XXXXXX,XXXXXX,XXXXXXX.» También es preocupante que estas fotos de perfil son visibles incluso cuando estás fuera de la plataforma. Esto sugiere que los usuarios menores de edad también pueden ver estas imágenes.

El análisis de estas cuentas problemáticas revela un patrón coordinado. Aunque muchos de estos canales no alojan directamente películas pornográficas, utilizan sus fotografías de perfil como gancho visual y distribuyen contenido explícito a través de listas de reproducción secundarias y enlaces externos. Algunos de estos canales superan los 200 mil suscriptores, sugiriendo la participación de actividad automatizada o redes de bots para evitar la detección y eliminación.
El usuario de Reddit señala que también puedes encontrar vídeos explícitos en YouTube con términos de búsqueda como «mmd r18» y «ver a través de prueba en el transport». Además, afirmaron que la plataforma tiene un «enorme» problema con el hentai sin censura, mientras enlazaban a una extensa lista de reproducción de contenido NSFW.
El problema se agrava por la aparente ineficacia de los sistemas de detección automática de Google. La compañía recientemente comenzó a probar una función que difumina automáticamente las miniaturas de videos con temática adulta, pero esta medida resulta inútil si la fotografía del canal que representa al creador es precisamente pornografía sin filtrar. Los moderadores de contenido de YouTube parecen ignorar los metadatos visuales de las cuentas y las listas de reproducción coordinadas, enfocándose únicamente en los videos principales publicados en los canales.
Google ha mantenido un silencio relativo sobre cómo planea resolver esta brecha en su vigilancia. Sin embargo, expertos señalan que la solución requeriría implementar un escaneo preventivo y obligatorio de todas las imágenes de perfil antes de su publicación, algo que aparentemente no ocurre actualmente. La realidad es que el control de acceso por edad en YouTube funciona más como una sugerencia que como una barrera efectiva, dejando a los menores vulnerables ante contenido que no debería ser accesible para ellos.