¿Qué pasó: Bueno, el nuevo chatbot de IA de Reddit ya está causando caos. Se supone que el bot, llamado «Respuestas», ayuda a las personas resumiendo información de publicaciones antiguas. Según un informe de 404media, el último chatbot de Reddit ahora sugiere narcóticos duros para tratar el dolor crónico.
- Cuando alguien le preguntó sobre cómo lidiar con el dolor crónico, señaló un comentario de un usuario que decía: «La heroína, irónicamente, me ha salvado la vida en esos casos».
- Y se pone peor. Alguien más le hizo una pregunta y recomendó kratom, un extracto de hierbas que está prohibido en algunos lugares y se ha relacionado con algunos problemas de salud graves.
- La parte más aterradora es que Reddit está probando este bot justo dentro de las conversaciones activas, por lo que su terrible consejo es aparecer donde todos puedan verlo. Las personas a cargo de estas comunidades, los moderadores, dijeron que ni siquiera podían desactivar la función.
¿Por qué es importante? Este es un ejemplo perfecto, aunque aterrador, de uno de los mayores problemas con la IA en este momento.
- El bot en realidad no entiende nada. Es realmente bueno para encontrar y repetir lo que los humanos han escrito en línea, y no puede diferenciar entre un consejo útil, una broma sarcástica o una sugerencia genuinamente peligrosa.
- El verdadero peligro es que está poniendo estas cosas justo en medio de conversaciones donde personas reales y vulnerables buscan ayuda, y presenta la información como si fuera un hecho.

¿Por qué debería importarme? Entonces, ¿por qué te importa esto? Porque muestra cuán riesgosas pueden ser estas herramientas de IA cuando se sueltan sin correa, especialmente cuando se trata de algo tan grave como su salud. Incluso si nunca le pediría consejo médico a un chatbot, sus malas sugerencias pueden comenzar a contaminar las comunidades en línea, lo que dificulta saber en quién o en qué confiar.
Lo que sigue: Después de que la gente (con razón) se asustó, Reddit confirmó que están retirando el bot de cualquier discusión relacionada con la salud. Pero han estado bastante callados sobre si están poniendo algún filtro de seguridad real en el propio bot. Entonces, por ahora, el problema está parcheado, no necesariamente resuelto.