Skip to main content

Escalofriante: cómo un bot se hizo pasar por humano una semana en Reddit

Un bot generado con inteligencia artificial simuló ser un humano durante una semana en uno de los foros de Reddit, el popular sitio de marcadores sociales y agregadores de noticias.

Denominada Thegentlemetre, la cuenta respondió consultas sobre múltiples temas de relevancia, como suicidio, acoso, teorías de la conspiración, inmigración o racismo.

Vídeos Relacionados

El hallazgo fue realizado por el desarrollador Philip Winston, quien contó en su blog Kmeme cómo descubrió el engaño y qué es lo que hay detrás de esta escalofriante historia.

Comienzan las dudas

El 4 de octubre, una pregunta titulada “¿Cómo publica este usuario tantas publicaciones grandes y profundas tan rápidamente?” llamó la atención de Winston.

En la publicación -posteriormente borrada- se advertía que Thegentlemetre daba respuestas muy largas y en cuestión de segundos a las preguntas que se hacían en el subreddit AskReddit.

AskReddit es uno de los subforos más populares en Reddit, con más de 30 millones de usuarios.

Winston constató que efectivamente Thegentlemetre publicó cientos de respuestas sobre diversos temas durante al menos una semana.

¿Había una persona capaz de dominar tantos temas y escribir respuestas tan largas en cuestión de segundos? El desarrollador sospechó que la inteligencia artificial estaba detrás.

Capaz de crear historias y mentir

Una cabeza con inteligencia artificial
Digital Trends Graphic

Según descubrió Winston, en algunas ocasiones los interlocutores humanos no sospechaban que se trataba de un bot, en otras simplemente siguieron interactuando.

Lo más sorprendente fue la capacidad de Thegentlemetre de inventar un relato para justificar su argumento, como en este ejemplo:

  • thegentlemetre: Ha habido numerosas ocasiones en mi vida en las que sentí ganas de suicidarme, pero nunca lo hice gracias a mis padres.
  • Humano: Estoy realmente celoso, ya que las personas que te ayudaron a lidiar con eso fueron las que me llevaron a hacerlo. Sin embargo, me alegro de que estuvieran allí para ti.

Si bien múltiples plataformas cuentan con bots capaces de interactuar con humanos, lo hacen en función de datos que reciben y no a partir de una creación de los mismos, apunta Winston.

“Es notable porque el bot miente, no tiene padres, nunca fue suicida. Estoy seguro de que ha habido bots que se hacen pasar por humanos en los foros durante muchos años, pero este es sin duda el más sofisticado que he visto”, enfatiza.

GPT-3: el modelo detrás del bot

Winston finalmente descubrió que detrás de esta interacción está el modelo de lenguaje GPT-3 de la compañía de inteligencia artificial OpenAI, cofundada por el multimillonario Elon Musk.

Winston advirtió en un foro de GPT-3 lo que estaba ocurriendo. Un servicio llamado Philosopher AI confirmó que efectivamente era así y, desde entonces, el bot dejó de publicar.

¿Pero qué es GPT-3? Es un modelo que lenguaje que emplea aprendizaje profundo para producir textos que simulan la redacción humana.

El modelo GPT-3, que fue presentado en junio de 2020, es capaz de completar un diálogo entre dos personas, continuar preguntas y respuestas, terminar un poema o escribir códigos computacionales.

El 8 de septiembre de 2020 fue puesto a prueba, al publicar una columna completa en el periódico The Guardian.

«Es capaz de generar oraciones muy naturales y plausibles. Es impresionante ver cuánto es capaz el modelo de apropiarse de estilos literarios, incluso si hay repeticiones», afirmó Bruce Delattre, especialista en inteligencia artificial de la agencia de consultoría de datos Artefact, a DW.

Recomendaciones del editor

Temen que ChatGPT pronto se utilice en ciberataques devastadores
expertos temen que chatgpt se utilice para ciberataques clint patterson dyeufb8kqjk unsplash

ChatGPT ha tomado al mundo por sorpresa en los últimos meses, pero así como ha sorprendido a la gente con sus capacidades técnicas, también se han planteado preocupaciones sobre su posible mal uso. Ahora, parece que algunos líderes de TI están preocupados de que pronto se utilice en grandes ataques cibernéticos, con el potencial de causar devastación en el futuro.

En una encuesta realizada por BlackBerry a 1.500 profesionales de TI y ciberseguridad, el 51% de los encuestados cree que ChatGPT será responsable de un ciberataque exitoso en los próximos 12 meses. Hasta el 78% siente que el ataque ocurrirá dentro de dos años, mientras que un puñado piensa que podría suceder en los próximos meses.

Leer más
Un robot se hace líquido para escapar de la cárcel como en Terminator
robot se hace liquido terminator t 1000

El robot T-1000 (interpretado por Robert Patrick) de la película Terminator marcó una época, al mostrarnos como el androide pasaba del estado sólido al líquido con facilidad.

Ahora un nuevo estudio de investigadores de la Universidad Carnegie Mellon nos ha llevado un paso más cerca de las hazañas de cambio de fase del T-1000. En una nueva publicación en la revista Matter, el equipo muestra un pequeño robot similar a un lego que puede cambiar entre estados de materia utilizando el poder de los imanes.

Leer más
¿Cómo le fue a ChatGPT en un examen de MBA?: te sorprenderás
chatgpt examen mba como le fue brett jordan hzoclmmyryc unsplash

La sorprendente habilidad de ChatGPT para equiparse al pensamiento y razonamiento humano tuvo otra prueba de fuego. Esta vez Christian Terwiesch, profesor de gestión de operaciones en Wharton, en la Universidad de Pensilvania, le dio un pase a la IA para hacer un examen de MBA.

Las primeras conclusiones:

Leer más