Skip to main content
  1. Home
  2. Redes sociales
  3. Noticias
  4. News

Peligro inminente: Meta abandona el fact-checking y moderar contenidos

Mark Zuckerberg, fundador y CEO de Meta, anteriormente conocido como Facebook.
DTES

Una situación potencialmente muy peligrosa acaba de anunciar Meta, la empresa matriz de compañías de redes sociales como Instagram, Facebook, WhatsApp o Threads, ya que ha anunciado hoy una importante revisión de sus políticas de moderación de contenidos, eliminando algunas de las barreras que había puesto en marcha durante varios años, en respuesta a las críticas de que había ayudado a difundir información errónea sobre política y salud.

En una entrada de blog titulada «Más discurso, menos errores», el nuevo director de asuntos globales de Meta, Joel Kaplan, esbozó los cambios en tres áreas clave para «deshacer el avance de la misión», según sus propias palabras:

  • Meta pondrá fin a su programa de verificación de datos de terceros y pasará a un modelo de Notas de la Comunidad en los próximos meses. Notas de la comunidad es lo que usan los sitios como X.com;
  • Está levantando las restricciones en torno a «temas que forman parte del discurso dominante», centrándose en cambio en la aplicación de la ley en «violaciones ilegales y de alta gravedad» en áreas como el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas; y
  • Se alentará a los usuarios a adoptar un enfoque «personalizado» del contenido político, dando paso a una opinión y un sesgo considerablemente más amplios en los feeds de las personas que se ajusten a lo que quieran ver.
Recommended Videos

Una historia de fact cheking y moderación

Las disposiciones de moderación de contenido de Meta se implementaron y perfeccionaron durante varios años luego de las críticas políticas y públicas sobre cómo ayudó a difundir información errónea sobre las elecciones, malos consejos sobre Covid-19 y otras controversias. La verificación de hechos, por ejemplo, se desarrolló por primera vez en 2016, cuando Meta trabajó con organizaciones de terceros tras las acusaciones de que Facebook estaba siendo utilizado como arma para difundir noticias falsas durante las elecciones presidenciales de Estados Unidos.

Con el tiempo, esto también llevó a la formación de un Comité de Supervisión, para más moderación.

«Los expertos, como todo el mundo, tienen sus propios sesgos y perspectivas. Esto se reflejó en las decisiones que algunos tomaron sobre qué verificar y cómo», anotó Kaplan. Agregó que Meta «aplicó en exceso» sus reglas llevó a «limitar el debate político legítimo y censurar demasiado contenido trivial». Meta ahora estima que una o dos partes de cada 10 artículos censurados eran «errores» que no violaban las políticas.

«Las plataformas de Meta están diseñadas para ser lugares donde las personas puedan expresarse libremente. Eso puede ser complicado. En las plataformas donde miles de millones de personas pueden tener voz, todo lo bueno, lo malo y lo feo está a la vista. Pero eso es libertad de expresión», agregó Kaplan.

Por su parte, la Junta de Supervisión dijo que «acoge con satisfacción la noticia de que Meta revisará su enfoque de la verificación de hechos, con el objetivo de encontrar una solución escalable para mejorar la confianza, la libertad de expresión y la voz de los usuarios en sus plataformas». La Junta agregó que trabajaría con Meta para dar forma a su enfoque de la «libertad de expresión en 2025».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Meta escondió investigaciones sobre el potencial dañino de sus productos
mark zuckerberg

Un reportaje de Reuters, da cuenta de que Mark Zuckerberg y compañía, desactivaron investigaciones serias encargadas internamente en Meta, que daban cuenta del potencial dañino de sus productos para la salud mental de los usuarios.

Los estudios internos demuestran que las personas que dejaron de usar Facebook experimentaban menos depresión, ansiedad y soledad. Esto proviene de documentos judiciales sin censurar en una demanda presentada por varios distritos escolares de EE. UU. contra grandes empresas de redes sociales. La demanda alega que estas empresas tenían conocimiento de los riesgos para la salud que suponen estas plataformas, pero lo ocultaron intencionadamente a los usuarios.

Read more
WhatsApp para Windows podría volverse más lenta con esta actualización
WhatsApp

¿Qué pasó: WhatsApp acaba de lanzar discretamente una actualización importante en su app para Windows, y digamos que la reacción no ha sido buena.

Ha sustituido efectivamente la aplicación rápida y nativa a la que estábamos acostumbrados por un "envoltorio web".

Read more
Ahora puedes crear vídeos divertidos de IA a partir de texto con Grok
Grok

¿Qué ha pasado? Si te encanta hacer vídeos creativos, ahora tienes otra plataforma con la que jugar. Grok Imagine, la herramienta de IA de xAI de Elon Musk, ahora soporta la función de texto a vídeo. La actualización fue anunciada en X por Elon Musk, trayendo la generación de vídeo directamente a la plataforma que quizá ya uses. Esto significa que puedes transformar una idea aleatoria en un vídeo corto escribiéndola en X tan fácilmente como compartiendo un tuit.

La nueva función Grok Imagine está desplegándose actualmente en la web, Android y la aplicación de iOS.

Read more