Hace algunos días mencionamos en Digital Trends que ChatGPT tiene un sentido de resguardo de la privacidad un poco débil, sobre todo porque almacena las conversaciones que realizamos, y eso justamente es lo que le pasó a un grupo de trabajadores de Samsung.
Los empleados de Samsung compartieron accidentalmente información confidencial mientras usaban ChatGPT para obtener ayuda en el trabajo. La división de semiconductores de Samsung ha permitido a los ingenieros usar ChatGPT para verificar el código fuente.
Pero The Economist Corea informó tres instancias separadas de empleados de Samsung que filtran involuntariamente información confidencial a ChatGPT. En un caso, un empleado pegó el código fuente confidencial en el chat para verificar si había errores. Otro empleado compartió código con ChatGPT y «solicitó optimización de código». Un tercero, compartió una grabación de una reunión para convertirla en notas para una presentación. Esa información ahora está en la naturaleza para que ChatGPT se alimente.
Samsung ha tomado medidas inmediatas al limitar la capacidad de carga de ChatGPT a 1024 bytes por persona, y está investigando a las personas involucradas en la filtración. También está considerando construir su propio chatbot interno de IA para evitar futuros contratiempos.