Skip to main content
  1. Home
  2. Redes sociales
  3. Features
  4. Tendencias
  5. Features

¿Deberían censurarse las fake news de ciencia en las redes?

Add as a preferred source on Google

La creencia incorrecta sobre un vínculo de la vacuna MMR con el autismo provino de un artículo académico publicado en 1998 (que luego fue retractado), mientras que las creencias generalizadas sin evidencia sobre el daño de la fluoración del agua fueron impulsadas por los medios impresos, los grupos de campaña y el boca a boca.

En la actualidad también existe información engañosa, pero lo que ha cambiado es la velocidad en que los datos falsos se divulgan y la gran cantidad de personas que pueden leerlos.

Un médico con un traje de protección con un cartel en la mano que dice: "Detengan al COVID-19".
Imagen utilizada con permiso del titular de los derechos de autor

Lamentablemente, internet está cada vez más lleno de información falsa y noticias de dudosa procedencia. Y cuando se trata de comprender la ciencia y tomar decisiones de salud, esto puede tener consecuencias de vida o muerte. Un ejemplo de ello son las personas disuadidas de vacunarse que, como resultado de la información engañosa en línea, han terminado en el hospital o incluso han muerto.

Sin embargo, eliminar por completo la información puede parecerse mucho a la censura, especialmente para los científicos cuyas carreras se basan en el entendimiento de que los hechos pueden y deben ser cuestionados y que la evidencia cambia.

Es por eso que la Real Sociedad de Londres para el Avance de la Ciencia Natural (o simplemente, Royal Society), la institución científica en funcionamiento continuo más antigua del mundo según la Enciclopedia Británica, ha dado su punto de vista respecto al tema, intentando lidiar con los desafíos que plantean las nuevas formas de comunicar información.

En un nuevo informe, la institución desaconseja que las empresas de redes sociales eliminen el contenido que sea “legal pero dañino”. En cambio, los autores del informe creen que las redes sociales deberían ajustar sus algoritmos para evitar que el contenido se vuelva viral y que las personas ganen dinero con afirmaciones falsas.

Pero no todos están de acuerdo con esa opinión, en especial los investigadores expertos en rastrear cómo la información errónea se propaga en línea y cómo daña a las personas, como el Centro para Contrarrestar el Odio Digital (CCDH). Esta organización sostiene que hay casos, como cuando el contenido es muy dañino, claramente erróneo y con mucha difusión, en los cuales es mejor eliminarlo.

Un ejemplo de ello, según CCDH, es “Plandemic”, un video que se volvió viral al comienzo de la pandemia. En este se hacían afirmaciones peligrosas y falsas creadas para asustar a las personas y alejarlas de las formas efectivas de reducir el daño del virus, como las vacunas y el uso de mascarillas. Finalmente fue retirado de las plataformas. Más adelante, surgió una secuela del video, “Plandemic 2”, pero las redes sociales estaban mejor preparadas para este, así que fue restringido y no tuvo el mismo alcance que el primero.

La imagen muestra a una joven luego de vacunarse.
Getty Images.

A raíz de ello, la Royal Society dice: “Eliminar el contenido puede exacerbar los sentimientos de desconfianza y ser aprovechado por otros para promover contenido de información errónea”. Esto “puede causar más daño que bien al conducir el contenido de información errónea (…) hacia rincones de internet más difíciles de abordar”.

Pero que esos rincones sean “más difíciles de abordar” es parte del punto. Si la información falsa va los rincones más ocultos de internet, se reduce el riesgo de que alguien que aún no está comprometido con creencias potencialmente dañinas y que no las está buscando se exponga a ellas por casualidad.

Algunas de las protestas impulsadas por conspiraciones no tuvieron su origen en rincones oscuros y rebuscados de internet, sino en Facebook. Y hay poca evidencia clara de que la eliminación de contenido lleve a las personas a tener creencias dañinas.

Entonces, como sugieren los autores del informe de la Royal Society, una forma de abordar este problema es hacer que el contenido falso sea más difícil de encontrar y de compartir, y que sea menos probable que aparezca automáticamente en el feed de alguien.

De esa manera se “garantiza que las personas aún puedan decir lo que piensan”, pero simplemente no tienen garantizada una audiencia de millones, es lo que explicó la profesora Gina Neff, científica social del Instituto de Internet de Oxford. “Todavía pueden publicar esta información, pero las plataformas no tienen que hacer que se vuelva viral”, agregó.

Redes sociales de Facebook
Getty Images

Por otro lado, el Instituto para el Diálogo Estratégico (ISD), un grupo de expertos que monitorea el extremismo, señala que una proporción sustancial de la información errónea se basa en la apropiación y el uso indebido de datos e investigaciones genuinos.

“Esto a veces es más peligroso que la información completamente falsa, porque puede llevar mucho más tiempo desmentirlo al explicar cómo y por qué se trata de una mala interpretación o mal uso de los datos”, dice el portavoz del ISD. Ahí es donde entra en juego la verificación de hechos, otra herramienta que apoya la Royal Society.

Según el ISD, los estudios han demostrado que un pequeño grupo de cuentas que difunden información errónea han tenido una “influencia desproporcionada en el debate público en las redes sociales”.

“Muchas de estas cuentas han sido etiquetadas por los verificadores de hechos como que comparten contenido falso o engañoso en múltiples ocasiones, pero aún permanecen activas”, agregó la organización.

Expertos en desinformación ven la verificación de hechos como una herramienta importante, y la investigación sobre ISIS y la extrema derecha sugiere que puede tener éxito. Un ejemplo es el caso de David Icke, un prolífico propagador de información errónea sobre el COVID-19 y de teorías de conspiración antisemitas.

Tras ser eliminado de YouTube, la investigación del CCDH descubrió que su capacidad para llegar a las personas se redujo considerablemente. Sus videos permanecieron en la plataforma alternativa de videos BitChute, pero sus visitas cayeron de 150,000 en promedio a 6,711 tras la eliminación en YouTube. En esta plataforma, 64 de sus videos habían sido vistos 9.6 millones de veces.

Pixabay

El profesor Martin Innes, uno de los autores de un estudio llamado Desplataformando la desinformación: teorías conspirativas y su control, dice que “parte del problema es que es necesario desarrollar modelos actuales de la eliminación de plataformas. No es suficiente simplemente eliminar una parte del contenido o una pequeña cantidad de cuentas”.

Innes se refiere al deplatforming, un método que intenta “boicotear a un grupo o individuo mediante la eliminación de las plataformas (como sitios de conferencias o sitios web) utilizadas para compartir información o ideas”.

La investigación del crimen organizado y la lucha contra el terrorismo muestra la necesidad de interrumpir toda la red, agregó el profesor. Sin embargo, cree que “este nivel de sofisticación aún no está integrado” en la forma en que abordamos la desinformación capaz de poner en peligro a las personas.

Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
X ya no permitirá hacer imágenes gratuitas con Grok
Electronics, Phone, Mobile Phone

Grok, el chatbot de IA respaldado por Elon Musk y integrado en el tejido de X, ha empezado a limitar sus herramientas de generación y edición de imágenes a los suscriptores de pago. El cambio sigue a una avalancha de críticas sobre la capacidad de la herramienta para producir imágenes sexualizadas y no consensuadas. Aunque la restricción es claramente un intento de frenar la marea de controversia, reguladores, grupos de defensa y usuarios argumentan que hace poco para evitar la creación de contenido dañino y potencialmente ilegal que involucre a mujeres y niños.

A partir de la noche del jueves, Grok trasladó oficialmente sus funciones de creación de imagen detrás del muro de pago de X Premium, que comienza en 8 dólares al mes

Read more
¿Te llegó un correo para reestablecer tu contraseña de Instagram? OJO!!!
Instagram

Un enorme tesoro de datos de usuarios de Instagram volvió a salir a la superficie hace unos días, y colocó a millones de cuentas de nuevo en el punto de mira más de un año después de que se pensara que la filtración original estaba muerta y enterrada.

Aproximadamente 17,5 millones de cuentas están atrapadas en esta última ola después de que los datos comenzaran a circular en un notorio foro de hacking a principios de enero de 2026. Según una alerta de seguridad de Malwarebytes, un hacker que usa el nombre de usuario "Solonik" es el responsable de la filtración. Aunque esto pueda parecer una nueva brecha de seguridad, los expertos afirman que los datos en realidad provienen de un error de 2024: una API de Instagram mal configurada que permitió a los malintencionados extraer grandes cantidades de información de perfil antes de que Meta pudiera tapar el agujero.

Read more
¿Qué pasa Google? Por qué Youtube tiene porno sin censura
Youtube logo

La plataforma de videos más grande del mundo continúa enfrentando un grave problema de moderación de contenido. Recientemente, se ha descubierto que imágenes pornográficas sin censura permanecen accesibles en YouTube mediante búsquedas específicas, exponiendo a todos los usuarios, incluyendo menores de edad, a material explícito.

Según reportes de investigadores independientes, es posible localizar perfiles de canal con fotografías de portada de contenido adulto utilizando términos de búsqueda muy particulares. Lo más preocupante radica en que estas imágenes son visibles incluso para usuarios que no han iniciado sesión en la plataforma, lo que significa que cualquier persona, sin importar su edad, puede tropezarse con ellas accidentalmente o intencionadamente.

Read more