Skip to main content

El próximo paso de ChatGPT: moderar contenido ilegal y polémico en Facebook

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto puede asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según una nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer «una visión más positiva del futuro de las plataformas digitales».

Al reclutar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede promulgar «iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas». Además de eso, «GPT-4 también es capaz de interpretar reglas y matices en la documentación de políticas de contenido largo y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente», afirma OpenAI.

Una pantalla de computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. GPT-4 podría entonces tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin saber las respuestas de antemano.

Los moderadores podrían comparar los dos conjuntos de etiquetas y usar cualquier discrepancia para reducir la confusión y agregar aclaraciones a sus reglas. En otras palabras, GPT-4 podría actuar como un usuario cotidiano y evaluar si las reglas tienen sentido.

El costo humano

Imagen utilizada con permiso del titular de los derechos de autor

El modelo de lenguaje grande GPT-4 de OpenAI intenta moderar una pieza de contenido. El resultado se compara con el análisis humano del contenido.

En este momento, la moderación de contenido en varios sitios web es realizada por humanos, lo que los expone a contenido potencialmente ilegal, violento o dañino de forma regular. Hemos visto repetidamente el terrible costo que la moderación de contenido puede tener en las personas, con Facebook pagando $ 52 millones a los moderadores que sufrieron de trastorno de estrés postraumático debido a los traumas de su trabajo.

Reducir la carga de los moderadores humanos podría ayudar a mejorar sus condiciones de trabajo, y dado que las IA como GPT-4 son inmunes al tipo de estrés mental que los humanos sienten cuando manejan contenido problemático, podrían implementarse sin preocuparse por el agotamiento y el trastorno de estrés postraumático.

Sin embargo, plantea la cuestión de si el uso de la IA de esta manera resultaría en pérdidas de empleos. La moderación de contenido no siempre es un trabajo divertido, pero es un trabajo de todos modos, y si GPT-4 toma el relevo de los humanos en esta área, es probable que exista la preocupación de que los antiguos moderadores de contenido simplemente sean redundantes en lugar de reasignados a otros roles.

OpenAI no menciona esta posibilidad en su publicación de blog, y eso realmente es algo que las plataformas de contenido deben decidir. Pero podría no hacer mucho para disipar los temores de que la IA sea implementada por grandes empresas simplemente como una medida de ahorro de costos, con poca preocupación por las consecuencias.

Aún así, si la IA puede reducir o eliminar la devastación mental que enfrentan los equipos sobrecargados de trabajo y subestimados que moderan el contenido en los sitios web utilizados por miles de millones de personas todos los días, podría haber algo bueno en todo esto. Queda por ver si eso se verá atenuado por despidos igualmente devastadores.

Recomendaciones del editor

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Facebook: documentos muestran sus problemas de moderación y desinformación
La imagen muestra a Mark Zuckerberg, CEO de Facebook.

Un consorcio de medios de comunicación comenzó a publicar este lunes 25 de octubre una serie de documentos internos de Facebook filtrados por la denunciante Frances Haugen.

Dichos informes fueron elaborados por Reuters, Bloomberg y The Washington Post, entre otros medios, y muestran la imagen de una compañía que ha intentado priorizar en varias ocasiones su dominio y beneficios sobre la seguridad de los usuarios.

Leer más
Usuarios podrán apelar a Facebook para eliminar contenido
Facebook

Los usuarios de Facebook e Instagram podrán apelar a la Junta de Supervisión de Facebook cuando la plataforma se niegue a eliminar contenido potencialmente dañino.

Para hacerlo, el usuario debe tener una cuenta de Facebook y haber agotado los procesos establecidos. Solo entonces puede llevar su petición a la Junta de Supervisión.

Leer más
Terrenos de la Amazonía se venden en Facebook ilegalmente
La imagen muestra grandes extensiones de bosque en la selva amazónica.

Un reportaje de la BBC revela que varias zonas o hectáreas de la Amazonía se venden de manera ilegal a través de Facebook Marketplace.

Estos terrenos incluirían bosques nacionales y zonas reservadas para los pueblos indígenas. Según el reportaje, algunas de las áreas serían tan grandes como 100 canchas de fútbol juntas.

Leer más