Las redes sociales, como Twitter y Facebook, han sido acusadas de facilitar que extremistas afines a Donald Trump se organizaran a través de sus plataformas para planear el asalto al Capitolio, que el 6 de enero de 2021 intentó impedir que el Congreso certificara el triunfo del presidente Joe Biden. ¿Qué lecciones dejaron estos eventos para las redes sociales?
Te va a interesar:
- Donald Trump y fallo de Facebook: “Es un insulto, igual ganaremos”
- Polémico y rentable: la evolución de Twitter en 15 años de vida
- Redes sociales y fake news: el difícil panorama de 2022
Durante la pandemia de COVID-19, Twitter y Facebook censuraron de manera parcial a Trump por difundir información falsa o errónea, pero no adoptaron medidas a largo plazo para atacar el problema de raíz.
Si bien no existe una fórmula mágica para combatir la desinformación y el contenido extremista, tampoco hay duda de que las plataformas podrían haber hecho más para evitar las escenas presenciadas en Washington D. C., en el asalto al Capitolio.
Regular los privilegios
Las autoridades y personalidades públicas solían tener grados de inmunidad en redes sociales. De hecho, las cuentas verificadas en plataformas como Facebook y Twitter –hoy más extendidas a otros usuarios– comenzaron en este segmento de usuarios.
Sin embargo, el comportamiento del expresidente Trump durante la pandemia de COVID-19, y más tarde, durante los eventos que terminaron en el asalto al Capitolio, obligaron a las compañías a adoptar medidas inéditas que pusieron en duda estos privilegios.
El golpe final lo dio la Junta de Vigilancia de Facebook, un órgano semindependiente compuesto por académicos, que recomendó sanciones claras contra Trump. De esta manera, Facebook implementó protocolos para sancionar a figuras públicas durante periodos de violencia, como los que afectaron a Estados Unidos en 2021.
La medida ha sido cuestionada por críticos de Facebook, que ven como esta sanción podría permitirle regresar justo para el periodo de la próxima campaña presidencial. Sin embargo, Facebook ha dicho que la sanción es al menos por dos años y que solo se autorizará el retorno si las condiciones lo permiten.
Reforzar equipos de verificación
En la víspera del primer aniversario del asalto al Capitolio, Twitter anunció que reforzaría sus equipos de verificación y monitoreo para revisar posibles vulneraciones a las políticas de las plataformas. Sin embargo, no especificó cuántos empleados se abocarán a esta tarea.
Lo concreto es que los incidentes en el Capitolio demostraron que los estándares y los equipos de monitoreo de las redes sociales no eran suficientes ni estaban lo suficientemente capacitados para responder a eventos de esta naturaleza.
Pese a los esfuerzos que han desplegado las compañías durante el último año para fortalecer su trabajo en esta materia, los porfiados hechos han demostrado que estos todavía son insuficientes. Prueba de ello fue que en septiembre de 2021 Twitter debió suspender la expansión de su programa de verificación de cuentas tras descubrir que algunas eran falsas.
Responsabilidad social vs. ganancias
Las redes sociales son empresas y, como tales, esperan obtener ingresos por sus actividades. Sin embargo, medidas como suspender al expresidente Trump o a sus partidarios pudieron haberse traducido en mermas en auspiciadores, usuarios y, por ende, en sus ganancias.
Pocos dudan que redes como Twitter y Facebook alimentaron el escenario que terminó con el asalto al Capitolio, con una actitud laxa frente a cuestionadas publicaciones del exmandatario. Aunque pudieron actuar antes, solo cuando la situación escaló a niveles dramáticos adoptaron medidas más drásticas.
Por lo mismo, la decisión de las plataformas de eliminar varias de las publicaciones de Trump y bloquear sus cuentas supuso un enorme riesgo de ingresos potenciales. Con ello, reconocieron implícitamente que sus actividades tienen una cuota de responsabilidad social, y que el contenido disponible no es inocuo.
Aumentar la regulación de las redes sociales
Sin el factor Trump, las teorías de la conspiración en torno al COVID-19 y los efectos de la vacuna siguen circulando en redes sociales, a pesar de los esfuerzos autodeclarados de estas compañías por evitar que ocurra.
¿Deben ser responsables las redes sociales de lo que ahí se publica? ¿Deben ser garantes de lo que es susceptible de discutir públicamente? Por ahora, el debate está en manos del Congreso de Estados Unidos, que analiza una reforma a la Sección 230, que actualmente protege a las compañías de internet de cualquier delito que puedan cometer sus usuarios.
Los críticos sostienen que este tratamiento especial provoca más daño que beneficios, ya que no solo permite la expansión de noticias falsas o incluso el intercambio de contenido de carácter criminal. Si bien Facebook se ha mostrado abierto a medidas más estrictas –como un código de buenas prácticas-, Google y Twitter han propuesto una mayor autorregulación.