Skip to main content

¿Deberían censurarse las fake news de ciencia en las redes?

La creencia incorrecta sobre un vínculo de la vacuna MMR con el autismo provino de un artículo académico publicado en 1998 (que luego fue retractado), mientras que las creencias generalizadas sin evidencia sobre el daño de la fluoración del agua fueron impulsadas por los medios impresos, los grupos de campaña y el boca a boca.

En la actualidad también existe información engañosa, pero lo que ha cambiado es la velocidad en que los datos falsos se divulgan y la gran cantidad de personas que pueden leerlos.

Un médico con un traje de protección con un cartel en la mano que dice: "Detengan al COVID-19".

Lamentablemente, internet está cada vez más lleno de información falsa y noticias de dudosa procedencia. Y cuando se trata de comprender la ciencia y tomar decisiones de salud, esto puede tener consecuencias de vida o muerte. Un ejemplo de ello son las personas disuadidas de vacunarse que, como resultado de la información engañosa en línea, han terminado en el hospital o incluso han muerto.

Sin embargo, eliminar por completo la información puede parecerse mucho a la censura, especialmente para los científicos cuyas carreras se basan en el entendimiento de que los hechos pueden y deben ser cuestionados y que la evidencia cambia.

Es por eso que la Real Sociedad de Londres para el Avance de la Ciencia Natural (o simplemente, Royal Society), la institución científica en funcionamiento continuo más antigua del mundo según la Enciclopedia Británica, ha dado su punto de vista respecto al tema, intentando lidiar con los desafíos que plantean las nuevas formas de comunicar información.

En un nuevo informe, la institución desaconseja que las empresas de redes sociales eliminen el contenido que sea “legal pero dañino”. En cambio, los autores del informe creen que las redes sociales deberían ajustar sus algoritmos para evitar que el contenido se vuelva viral y que las personas ganen dinero con afirmaciones falsas.

Pero no todos están de acuerdo con esa opinión, en especial los investigadores expertos en rastrear cómo la información errónea se propaga en línea y cómo daña a las personas, como el Centro para Contrarrestar el Odio Digital (CCDH). Esta organización sostiene que hay casos, como cuando el contenido es muy dañino, claramente erróneo y con mucha difusión, en los cuales es mejor eliminarlo.

Un ejemplo de ello, según CCDH, es “Plandemic”, un video que se volvió viral al comienzo de la pandemia. En este se hacían afirmaciones peligrosas y falsas creadas para asustar a las personas y alejarlas de las formas efectivas de reducir el daño del virus, como las vacunas y el uso de mascarillas. Finalmente fue retirado de las plataformas. Más adelante, surgió una secuela del video, “Plandemic 2”, pero las redes sociales estaban mejor preparadas para este, así que fue restringido y no tuvo el mismo alcance que el primero.

La imagen muestra a una joven luego de vacunarse.
Getty Images.

A raíz de ello, la Royal Society dice: “Eliminar el contenido puede exacerbar los sentimientos de desconfianza y ser aprovechado por otros para promover contenido de información errónea”. Esto “puede causar más daño que bien al conducir el contenido de información errónea (…) hacia rincones de internet más difíciles de abordar”.

Pero que esos rincones sean “más difíciles de abordar” es parte del punto. Si la información falsa va los rincones más ocultos de internet, se reduce el riesgo de que alguien que aún no está comprometido con creencias potencialmente dañinas y que no las está buscando se exponga a ellas por casualidad.

Algunas de las protestas impulsadas por conspiraciones no tuvieron su origen en rincones oscuros y rebuscados de internet, sino en Facebook. Y hay poca evidencia clara de que la eliminación de contenido lleve a las personas a tener creencias dañinas.

Entonces, como sugieren los autores del informe de la Royal Society, una forma de abordar este problema es hacer que el contenido falso sea más difícil de encontrar y de compartir, y que sea menos probable que aparezca automáticamente en el feed de alguien.

De esa manera se “garantiza que las personas aún puedan decir lo que piensan”, pero simplemente no tienen garantizada una audiencia de millones, es lo que explicó la profesora Gina Neff, científica social del Instituto de Internet de Oxford. “Todavía pueden publicar esta información, pero las plataformas no tienen que hacer que se vuelva viral”, agregó.

Redes sociales de Facebook
Getty Images

Por otro lado, el Instituto para el Diálogo Estratégico (ISD), un grupo de expertos que monitorea el extremismo, señala que una proporción sustancial de la información errónea se basa en la apropiación y el uso indebido de datos e investigaciones genuinos.

“Esto a veces es más peligroso que la información completamente falsa, porque puede llevar mucho más tiempo desmentirlo al explicar cómo y por qué se trata de una mala interpretación o mal uso de los datos”, dice el portavoz del ISD. Ahí es donde entra en juego la verificación de hechos, otra herramienta que apoya la Royal Society.

Según el ISD, los estudios han demostrado que un pequeño grupo de cuentas que difunden información errónea han tenido una “influencia desproporcionada en el debate público en las redes sociales”.

“Muchas de estas cuentas han sido etiquetadas por los verificadores de hechos como que comparten contenido falso o engañoso en múltiples ocasiones, pero aún permanecen activas”, agregó la organización.

Expertos en desinformación ven la verificación de hechos como una herramienta importante, y la investigación sobre ISIS y la extrema derecha sugiere que puede tener éxito. Un ejemplo es el caso de David Icke, un prolífico propagador de información errónea sobre el COVID-19 y de teorías de conspiración antisemitas.

Tras ser eliminado de YouTube, la investigación del CCDH descubrió que su capacidad para llegar a las personas se redujo considerablemente. Sus videos permanecieron en la plataforma alternativa de videos BitChute, pero sus visitas cayeron de 150,000 en promedio a 6,711 tras la eliminación en YouTube. En esta plataforma, 64 de sus videos habían sido vistos 9.6 millones de veces.

Pixabay

El profesor Martin Innes, uno de los autores de un estudio llamado Desplataformando la desinformación: teorías conspirativas y su control, dice que “parte del problema es que es necesario desarrollar modelos actuales de la eliminación de plataformas. No es suficiente simplemente eliminar una parte del contenido o una pequeña cantidad de cuentas”.

Innes se refiere al deplatforming, un método que intenta “boicotear a un grupo o individuo mediante la eliminación de las plataformas (como sitios de conferencias o sitios web) utilizadas para compartir información o ideas”.

La investigación del crimen organizado y la lucha contra el terrorismo muestra la necesidad de interrumpir toda la red, agregó el profesor. Sin embargo, cree que “este nivel de sofisticación aún no está integrado” en la forma en que abordamos la desinformación capaz de poner en peligro a las personas.

Recomendaciones del editor