Un interesante proyecto quiso colocar a prueba la tolerancia y sobre todo la polarización o no que provocan las redes sociales en las personas. Para eso, Un estudio reciente realizado por investigadores de la Universidad de Ámsterdam en los Países Bajos colocó a los chatbots de IA en una estructura de redes sociales simple para ver cómo interactuaban entre sí y descubrió que, incluso sin la mano invisible del algoritmo, tienden a organizarse en función de sus afiliaciones preasignadas y se autoclasifican en cámaras de eco.
El estudio, cuya preimpresión se publicó recientemente en arXiv, tomó 500 chatbots de IA impulsados por el gran modelo de lenguaje GPT-4o mini de OpenAI, y les asignó roles de personas específicas. Luego, se lanzaron a una plataforma de redes sociales simple que no tenía anuncios ni algoritmos que ofrecieran descubrimiento de contenido o publicaciones recomendadas en el feed de un usuario.
Esos chatbots tenían la tarea de interactuar entre sí y con el contenido disponible en la plataforma. En el transcurso de cinco experimentos diferentes, todos los cuales involucraron a los chatbots participando en 10,000 acciones, los bots tendían a seguir a otros usuarios que compartían sus propias creencias políticas. También encontró que los usuarios que publicaron el contenido más partidista tendían a obtener la mayor cantidad de seguidores y republicaciones.

Para combatir la polarización de autoselección, los investigadores probaron un puñado de soluciones, incluida la oferta de un feed cronológico, la devaluación del contenido viral, la ocultación de las cifras de seguidores y reenvíos, la ocultación de los perfiles de los usuarios y la amplificación de puntos de vista opuestos. (Este último, los investigadores tuvieron éxito en un estudio anterior, que logró crear un alto compromiso y una baja toxicidad en una plataforma social simulada).
Ninguna de las intervenciones realmente marcó la diferencia, ya que no logró crear más de un 6% de cambio en el compromiso dado a las cuentas partidistas. En la simulación que ocultó las biografías de los usuarios, la división partidista en realidad empeoró y las publicaciones extremas recibieron aún más atención.
Por tanto, la conclusión final es que los bots terminaron enfrentados después de las interacciones y relaciones que estaban generando en el modelo de red social creado.
Lo más preocupante de lo que descubrieron los investigadores de Países Bajos, es que si todo esto se extrapolara a condiciones humanas, funcionaría de manera similar o idéntica, ya que los sesgos, algoritmos y entrenamiento de estos bots ha salido antes de toda la comprensión humana que han recorrido.
Por último deja de manifiesto, que así como están creadas y diseñadas actualmente, las redes sociales siempre se convertirán en un fértil campo de batalla, donde los humanos sacaremos lo peor y lo más instintivo de lo nuestro.