Hace algunos días mencionamos en Digital Trends que ChatGPT tiene un sentido de resguardo de la privacidad un poco débil, sobre todo porque almacena las conversaciones que realizamos, y eso justamente es lo que le pasó a un grupo de trabajadores de Samsung.
Los empleados de Samsung compartieron accidentalmente información confidencial mientras usaban ChatGPT para obtener ayuda en el trabajo. La división de semiconductores de Samsung ha permitido a los ingenieros usar ChatGPT para verificar el código fuente.
Pero The Economist Corea informó tres instancias separadas de empleados de Samsung que filtran involuntariamente información confidencial a ChatGPT. En un caso, un empleado pegó el código fuente confidencial en el chat para verificar si había errores. Otro empleado compartió código con ChatGPT y «solicitó optimización de código». Un tercero, compartió una grabación de una reunión para convertirla en notas para una presentación. Esa información ahora está en la naturaleza para que ChatGPT se alimente.
Samsung ha tomado medidas inmediatas al limitar la capacidad de carga de ChatGPT a 1024 bytes por persona, y está investigando a las personas involucradas en la filtración. También está considerando construir su propio chatbot interno de IA para evitar futuros contratiempos.
Recomendaciones del editor
- Se acaba de filtrar la fecha de lanzamiento del Galaxy Z Fold 6 y Flip 6
- Los nuevos auriculares de Nothing eclipsan a Apple, Google y Amazon al incorporar ChatGPT
- La nueva tableta Android de Samsung es una alternativa perfecta al iPad
- Atención usuarios de la saga Samsung Galaxy S20, algo cambiará para siempre
- Así será la versión extra gratuita de ChatGPT