Un bot generado con inteligencia artificial simuló ser un humano durante una semana en uno de los foros de Reddit, el popular sitio de marcadores sociales y agregadores de noticias.
Denominada Thegentlemetre, la cuenta respondió consultas sobre múltiples temas de relevancia, como suicidio, acoso, teorías de la conspiración, inmigración o racismo.
El hallazgo fue realizado por el desarrollador Philip Winston, quien contó en su blog Kmeme cómo descubrió el engaño y qué es lo que hay detrás de esta escalofriante historia.
Comienzan las dudas
El 4 de octubre, una pregunta titulada “¿Cómo publica este usuario tantas publicaciones grandes y profundas tan rápidamente?” llamó la atención de Winston.
En la publicación -posteriormente borrada- se advertía que Thegentlemetre daba respuestas muy largas y en cuestión de segundos a las preguntas que se hacían en el subreddit AskReddit.
AskReddit es uno de los subforos más populares en Reddit, con más de 30 millones de usuarios.
Winston constató que efectivamente Thegentlemetre publicó cientos de respuestas sobre diversos temas durante al menos una semana.
¿Había una persona capaz de dominar tantos temas y escribir respuestas tan largas en cuestión de segundos? El desarrollador sospechó que la inteligencia artificial estaba detrás.
Capaz de crear historias y mentir
Según descubrió Winston, en algunas ocasiones los interlocutores humanos no sospechaban que se trataba de un bot, en otras simplemente siguieron interactuando.
Lo más sorprendente fue la capacidad de Thegentlemetre de inventar un relato para justificar su argumento, como en este ejemplo:
- thegentlemetre: Ha habido numerosas ocasiones en mi vida en las que sentí ganas de suicidarme, pero nunca lo hice gracias a mis padres.
- Humano: Estoy realmente celoso, ya que las personas que te ayudaron a lidiar con eso fueron las que me llevaron a hacerlo. Sin embargo, me alegro de que estuvieran allí para ti.
Si bien múltiples plataformas cuentan con bots capaces de interactuar con humanos, lo hacen en función de datos que reciben y no a partir de una creación de los mismos, apunta Winston.
“Es notable porque el bot miente, no tiene padres, nunca fue suicida. Estoy seguro de que ha habido bots que se hacen pasar por humanos en los foros durante muchos años, pero este es sin duda el más sofisticado que he visto”, enfatiza.
GPT-3: el modelo detrás del bot
Winston finalmente descubrió que detrás de esta interacción está el modelo de lenguaje GPT-3 de la compañía de inteligencia artificial OpenAI, cofundada por el multimillonario Elon Musk.
Winston advirtió en un foro de GPT-3 lo que estaba ocurriendo. Un servicio llamado Philosopher AI confirmó que efectivamente era así y, desde entonces, el bot dejó de publicar.
¿Pero qué es GPT-3? Es un modelo que lenguaje que emplea aprendizaje profundo para producir textos que simulan la redacción humana.
El modelo GPT-3, que fue presentado en junio de 2020, es capaz de completar un diálogo entre dos personas, continuar preguntas y respuestas, terminar un poema o escribir códigos computacionales.
El 8 de septiembre de 2020 fue puesto a prueba, al publicar una columna completa en el periódico The Guardian.
«Es capaz de generar oraciones muy naturales y plausibles. Es impresionante ver cuánto es capaz el modelo de apropiarse de estilos literarios, incluso si hay repeticiones», afirmó Bruce Delattre, especialista en inteligencia artificial de la agencia de consultoría de datos Artefact, a DW.