Una situación preocupante está detectando en las últimas horas el sitio ArsTechnica, ya que en un informe indica que varios usuarios están entregando pantallazos de errores y filtraciones de datos y contraseñas de ChatGPT.
Un usuario en particular reportó pantallazos que contenían varios pares de nombres de usuario y contraseñas que parecían estar conectados a un sistema de apoyo utilizado por los empleados de un portal de medicamentos recetados de farmacia.
«Fui a hacer una consulta (en este caso, ayuda para encontrar nombres inteligentes para los colores de una paleta) y cuando volví a acceder momentos después, me di cuenta de las conversaciones adicionales», escribió Whiteside en un correo electrónico. «No estaban allí cuando usé ChatGPT anoche (soy un usuario bastante pesado). No se hicieron consultas, simplemente aparecieron en mi historial, y ciertamente no son mías (y tampoco creo que sean del mismo usuario)».
Otras conversaciones filtradas a Whiteside incluyen el nombre de una presentación en la que alguien estaba trabajando, detalles de una propuesta de investigación inédita y un script que utiliza el lenguaje de programación PHP.
El pasado mes de marzo de 2023, OpenAI, fabricante de ChatGPT, desconectó el chatbot de IA después de que un error hiciera que el sitio mostrara títulos del historial de chat de un usuario activo a usuarios no relacionados.
En noviembre, los investigadores publicaron un artículo en el que informaban de cómo utilizaban las consultas para incitar a ChatGPT a divulgar direcciones de correo electrónico, números de teléfono y fax, direcciones físicas y otros datos privados que se incluían en el material utilizado para entrenar el modelo de lenguaje grande de ChatGPT.