Skip to main content

El próximo paso de ChatGPT: moderar contenido ilegal y polémico en Facebook

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto puede asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según una nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer «una visión más positiva del futuro de las plataformas digitales».

Al reclutar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede promulgar «iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas». Además de eso, «GPT-4 también es capaz de interpretar reglas y matices en la documentación de políticas de contenido largo y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente», afirma OpenAI.

Una pantalla de computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. GPT-4 podría entonces tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin saber las respuestas de antemano.

Recommended Videos

Los moderadores podrían comparar los dos conjuntos de etiquetas y usar cualquier discrepancia para reducir la confusión y agregar aclaraciones a sus reglas. En otras palabras, GPT-4 podría actuar como un usuario cotidiano y evaluar si las reglas tienen sentido.

El costo humano

Imagen utilizada con permiso del titular de los derechos de autor

El modelo de lenguaje grande GPT-4 de OpenAI intenta moderar una pieza de contenido. El resultado se compara con el análisis humano del contenido.

En este momento, la moderación de contenido en varios sitios web es realizada por humanos, lo que los expone a contenido potencialmente ilegal, violento o dañino de forma regular. Hemos visto repetidamente el terrible costo que la moderación de contenido puede tener en las personas, con Facebook pagando $ 52 millones a los moderadores que sufrieron de trastorno de estrés postraumático debido a los traumas de su trabajo.

Reducir la carga de los moderadores humanos podría ayudar a mejorar sus condiciones de trabajo, y dado que las IA como GPT-4 son inmunes al tipo de estrés mental que los humanos sienten cuando manejan contenido problemático, podrían implementarse sin preocuparse por el agotamiento y el trastorno de estrés postraumático.

Sin embargo, plantea la cuestión de si el uso de la IA de esta manera resultaría en pérdidas de empleos. La moderación de contenido no siempre es un trabajo divertido, pero es un trabajo de todos modos, y si GPT-4 toma el relevo de los humanos en esta área, es probable que exista la preocupación de que los antiguos moderadores de contenido simplemente sean redundantes en lugar de reasignados a otros roles.

OpenAI no menciona esta posibilidad en su publicación de blog, y eso realmente es algo que las plataformas de contenido deben decidir. Pero podría no hacer mucho para disipar los temores de que la IA sea implementada por grandes empresas simplemente como una medida de ahorro de costos, con poca preocupación por las consecuencias.

Aún así, si la IA puede reducir o eliminar la devastación mental que enfrentan los equipos sobrecargados de trabajo y subestimados que moderan el contenido en los sitios web utilizados por miles de millones de personas todos los días, podría haber algo bueno en todo esto. Queda por ver si eso se verá atenuado por despidos igualmente devastadores.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
El tráfico ilegal de especies silvestres aumenta en Facebook
trafico ilegal especies silvestres aumenta facebook cachorro de tigre

De acuerdo con una investigación, el tráfico de especies silvestres de animales aumenta en Facebook, pese a que la red social de Meta se comprometió a ayudar a frenar el comercio ilegal.

El estudio, liderado por la organización Avaaz, descubrió que varias especies amenazadas o en peligro de extinción como cachorros de tigre, titíes pigmeos, loros grises africanos, leopardos y ocelotes, entre otros, se siguen comercializando de manera ilegal en la plataforma.

Leer más
Moderadores de Facebook en español denuncian peligros laborales
redencion facebook robot fibra optica

Facebook subcontrata empresas para moderar el contenido que se publica en la red social, desde las publicaciones más inocuas hasta aquellas que por su contenido político pueden considerarse polémicas. Con más de 2,600 millones de usuarios en todo el mundo, la labor es titánica, por lo que se esperaría que las personas encargadas de moderar Facebook trabajaran en condiciones adecuadas. Sin embargo, no es así, según un reporte publicado por el medio BuzzFeed News.

El medio consigna que las condiciones laborales de las personas encargadas de moderar el contenido de Facebook publicado en español son, al menos sanitariamente hablando, peligrosas.

Leer más
Facebook: documentos muestran sus problemas de moderación y desinformación
La imagen muestra a Mark Zuckerberg, CEO de Facebook.

Un consorcio de medios de comunicación comenzó a publicar este lunes 25 de octubre una serie de documentos internos de Facebook filtrados por la denunciante Frances Haugen.

Dichos informes fueron elaborados por Reuters, Bloomberg y The Washington Post, entre otros medios, y muestran la imagen de una compañía que ha intentado priorizar en varias ocasiones su dominio y beneficios sobre la seguridad de los usuarios.

Leer más