Skip to main content

Facebook pasa a la ofensiva contra las noticias falsas

Asumiendo que conectar a sus dos billones (2,200 millones) de usuarios con autoridades sanitarias internacionales y locales es “solo la mitad del desafío” en el marco de la epidemia global de coronavirus, Facebook ha anunciado un mayor énfasis en sus esfuerzos contra las noticias falsas.

Desde que fue declarada la pandemia, la red social implementó un centro de información, con noticias, enlaces a organizaciones de salud reconocidas, recomendaciones para prevenir el contagio y lineamientos para sobrellevar el encierro, entre otros contenidos, a los que también han accedido los usuarios de su filial Instagram.

Todo, según el vicepresidente para Integridad de Facebook, Guy Rosen, para evitar también “que información errónea y dañina sobre COVID-19 se propague en nuestras aplicaciones”.

Para cumplir con tal desafío, la empresa se ha asociado con más de 60 organizaciones de verificación de datos en todo el mundo, que revisan y califican el contenido en más de 50 idiomas. Y el plan de alianzas sigue en crecimiento.

“Desde principios de marzo (de 2020), agregamos ocho nuevos socios y ampliamos nuestra cobertura a más de una decena de nuevos países. Por ejemplo, agregamos MyGoPen en Taiwán, AFP y dpa en los Países Bajos y Reuters en el Reino Unido, entre otros”, detalló Rosen.

Facebook ha dispuesto un monto de $1,000,000 de dólares para su programa de subvenciones en asociación con la Red Internacional de Verificación de Datos y ha otorgado beneficios a 13 organizaciones de verificación de daros en países como Italia, España, Colombia, India, la República del Congo.

Según el ejecutivo, “una vez que un verificador de datos clasifica un contenido como falso, reducimos su distribución y mostramos etiquetas de advertencia con más contexto. Basándonos en lo mismo, se identifican historias duplicadas desacreditadas. Por ejemplo, durante marzo, mostramos en Facebook advertencias en aproximadamente 40 millones de publicaciones relacionadas con el COVID-19, basadas en alrededor de 4,000 artículos de nuestros socios independientes de verificación de datos”.

“Cuando las personas vieron esas etiquetas de advertencia, el 95 por ciento de las veces no vieron el contenido original. A la fecha, también hemos eliminado cientos de miles de informaciones erróneas que podrían causar daños físicos. Los ejemplos incluyen afirmaciones dañinas como beber lejía para curar el virus y teorías como el distanciamiento físico es ineficaz para prevenir la propagación de la enfermedad”, afirmó Rosen.

El vicepresidente para Integridad de Facebook anunció que la red social comenzará a mostrar mensajes en el News Feed a las personas que les han gustado, reaccionado o comentado información errónea y nociva sobre el COVID-19 que ha sido eliminada.

“Estos mensajes conectarán a las personas con los mitos de COVID-19 desacreditados por la OMS, incluidos los que hemos eliminado de nuestra plataforma por el riesgo de causar daños físicos. Queremos conectar a las personas que pueden haber interactuado con esa información con la verdad de fuentes autorizadas en caso de que vean o escuchen estas afirmaciones nuevamente fuera de Facebook. La gente comenzará a ver estos mensajes en las próximas semanas”, detalló Rosen.

Juan José Castillo
Ex escritor de Digital Trends en Español
Juan José se ha desempeñado por cerca de dos décadas como periodista en medios de comunicación e instituciones públicas…
El próximo paso de ChatGPT: moderar contenido ilegal y polémico en Facebook
chatgpt moderar contenido ilegal polemico facebook emiliano vittoriosi kdnhf7vjsik unsplash

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto puede asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según una nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer "una visión más positiva del futuro de las plataformas digitales".

Al reclutar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede promulgar "iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas". Además de eso, "GPT-4 también es capaz de interpretar reglas y matices en la documentación de políticas de contenido largo y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente", afirma OpenAI.
Rolf van Root / Unsplash
Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. GPT-4 podría entonces tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin saber las respuestas de antemano.

Leer más
Meta explica cómo la IA elige lo que ves en Instagram y Facebook
Cómo desbloquear a alguien en Instagram en unos breves pasos.

Por intermedio de su presidente de Asuntos Globales, Nick Clegg, Meta, informó al público cómo la IA hace los algoritmos en sus redes sociales. en un intento por desmitificar cómo se recomienda el contenido para los usuarios de Instagram y Facebook.
Nick Clegg, dijo que el volcado de información en los sistemas de inteligencia artificial detrás de sus algoritmos es parte del "espíritu más amplio de apertura, transparencia y responsabilidad" de la compañía, y describió lo que los usuarios de Facebook e Instagram pueden hacer para controlar mejor el contenido que ven en las plataformas.

"Con los rápidos avances que tienen lugar con tecnologías poderosas como la IA generativa, es comprensible que las personas estén entusiasmadas con las posibilidades y preocupadas por los riesgos", dijo Clegg en el blog. "Creemos que la mejor manera de responder a esas preocupaciones es con apertura".
La mayor parte de la información está contenida en 22 "tarjetas del sistema" que cubren el Feed, Historias, Reeles y otras formas en que las personas descubren y consumen contenido en las plataformas de redes sociales de Meta. Cada una de estas tarjetas proporciona información detallada pero accesible sobre cómo los sistemas de IA detrás de estas características clasifican y recomiendan contenido.

Leer más
Por qué la gente está tan molesta con las noticias de Starfield
starfield pc gente molesta

AMD acaba de anunciar una inesperada asociación "exclusiva" con Bethesda y Starfield, y la gente no está contenta. La asociación pone en duda si el juego admitirá tecnología como DLSS de Nvidia y XeSS de Intel, y no tenemos una respuesta clara en este momento.

Starfield es el juego más esperado del año, probablemente haga uso de algunas de las mejores tarjetas gráficas disponibles actualmente. Esta asociación es un buen augurio para AMD, pero ¿los usuarios de Nvidia seguirán felices de jugar Starfield?
Bethesda
AMD dio la noticia en un video rápido que muestra un poco de juego de Starfield junto con comentarios de Jack Huynh, vicepresidente senior del grupo de Computación y Gráficos de AMD, y Todd Howard, director de juegos de Bethesda.

Leer más