Skip to main content
  1. Home
  2. Tendencias
  3. Redes sociales
  4. News

Investigación revela que OnlyFans permitió contenido ilegal en ciertas cuentas

Add as a preferred source on Google

Luego del sorprendente anuncio de OnlyFans respecto a la prohibición del contenido pornográfico en la plataforma, una nueva investigación publica algunos detalles de la gestión interna de la compañía y revela cómo permitía cierto contenido ilegal si este era publicado por cuentas “exitosas”.

El reportaje de la BBC entrega detalles algo escabrosos sobre el trabajo de los moderadores de OnlyFans, cuya tarea consiste en revisar el contenido que se publica y hacer cumplir las reglas. Pero algunos encargados, bajo condición de anonimato, explican que OnlyFans no actúa de la misma manera con todos sus creadores: con cierto contenido y cuentas se era más permisivo.

Recommended Videos

Uno de estos moderadores revela que las reglas no escritas de OnlyFans eran simples: si cuentas con menos seguidores publicaban contenido ilegal, estas se restringían de inmediato. En cambio, perfiles con más espectadores recibían advertencias y solo luego de la tercera se tomaban medidas más concretas.

Si las reglas las rompían las cuentas más exitosas del sitio los moderadores simplemente no se hacían cargo y dejaban el problema en manos de un equipo diferente.

OnlyFans lanza su aplicación sin contenido para adultos
OnlyFans.

Estos reguladores anónimos mencionados en el reportaje revelan que se encontraron con mucho contenido ilegal dentro de OnlyFans y no solo relacionado a la pornografía, sino también a otro tipo de actividades. Asimismo, la BBC confirmó que investigaron el comportamiento de algunas cuentas que publicaban contenido ilegal y descubrieron que no todas eran eliminadas de la plataforma.

También se habla sobre una especie de manual de instrucciones que los moderadores debían seguir y que era independiente y diferente a los términos de uso de la plataforma. Dicho manual contenía algunas ediciones y recomendaciones hechas por uno de los más altos ejecutivos de la compañía, Tom Stokely, director de operaciones de OnlyFans.

De manera oficial, la plataforma explicó que el cambio en su política de contenidos tiene que ver con exigencias impuestas por empresas de medios de pago. Sin embargo, el reportaje de la BBC sugiere que hay otro tipo de presiones sobre OnlyFans y se menciona a un grupo de congresistas de Estados Unidos que solicitaron al Departamento de Justicia del país una investigación enfocada en sospechas de explotación infantil.

Raúl Estrada
Former Digital Trends Contributor
Raúl Estrada comenzó en el mundo de los medios de comunicación en 2009, mientras estudiaba ingeniería y escribía en…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more