Skip to main content

Google le dice a los trabajadores que desconfíen de la IA

Alphabet ha dicho a sus empleados que no ingresen información confidencial en Bard, el chatbot generativo de IA creado y operado por Google, que posee Alphabet.

La advertencia de la compañía también se extiende a otros chatbots, como ChatGPT de OpenAI, respaldado por Microsoft, informó Reuters el jueves.

Los chatbots impulsados por IA han generado un gran interés en los últimos meses debido a su impresionante capacidad para conversar de una manera humana, escribir ensayos e informes, e incluso tener éxito en las pruebas académicas.

Pero a Alphabet le preocupa que sus trabajadores filtren inadvertidamente datos internos a través de las herramientas.

Imagen utilizada con permiso del titular de los derechos de autor

En el trabajo en curso para refinar y mejorar la tecnología avanzada de IA, los revisores humanos pueden leer las conversaciones que los usuarios tienen con los chatbots, lo que representa un riesgo para la privacidad personal y también la posible exposición de secretos comerciales, el último de los cuales Alphabet parece estar particularmente preocupado.

Además, los chatbots se entrenan en parte utilizando los intercambios de texto de los usuarios, por lo que con ciertas indicaciones, la herramienta podría repetir la información confidencial que recibe en esas conversaciones a los miembros del público.

Al igual que ChatGPT, Bard ahora está disponible gratuitamente para que cualquiera lo pruebe. En su página web, advierte a los usuarios: «Por favor, no incluya información que pueda usarse para identificarlo a usted o a otros en sus conversaciones de Bard».

Agrega que Google recopila «conversaciones de Bard, información relacionada con el uso del producto, información sobre su ubicación y sus comentarios» y utiliza los datos para mejorar los productos y servicios de Google que incluyen Bard.

Google dice que almacena la actividad de Bard por hasta 18 meses, aunque un usuario puede cambiar esto a tres o 36 meses en su cuenta de Google.

Agrega que, como medida de privacidad, las conversaciones de Bard se desconectan de una cuenta de Google antes de que un revisor humano las vea.

Reuters dijo que si bien la advertencia de Alphabet ha estado vigente por un tiempo, recientemente la amplió, diciéndoles a sus trabajadores que eviten usar código informático preciso generado por chatbots. La compañía le dijo al medio de noticias que Bard a veces puede hacer «sugerencias de código no deseadas», aunque la iteración actual de la herramienta todavía se considera una ayuda de programación viable.

Alphabet no es la única compañía que advierte a sus empleados sobre los riesgos de privacidad y seguridad relacionados con el uso de los chatbots. Samsung emitió recientemente una instrucción similar a sus trabajadores después de que varios de ellos introdujeron datos confidenciales relacionados con semiconductores en ChatGPT, y Apple y Amazon, entre otros, también han promulgado una política interna similar.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

ChatGPT ha ha conseguido deslumbrar a Internet con contenido generado por IA, transformándose de un novedoso chatbot a una pieza de tecnología que está impulsando la próxima era de innovación. En realidad, ningún producto tecnológico reciente ha despertado tanto interés, controversia, miedo y entusiasmo a partes iguales.

Si recién has oído sobre esto, es seguro que te estás preguntando a qué se debe tanto alboroto. Por lo pronto, puedes probarlo tú mismo de forma gratuita (o usar la aplicación oficial gratuita para iOS), pero igualmente aquí te damos una guía detallada de qué es y cómo usar Chat GPT, ya sea que estés preocupado por un apocalipsis de la IA o simplemente estés buscando una guía de introducción a esta aplicación.

Leer más
ChatGPT está violando su privacidad dice la GDPR
ChatGPT

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
Joe Maring / DT
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Leer más
La broma que originó el primer Doodle de Google
Burning Man, el primer Doodle de Google

Con más de 4,000 diseños después de dos décadas, los Doodles se han convertido en uno de los sellos más característicos del buscador de Google. Sin embargo, todo comenzó en 1998 como una “broma” de Larry Page y Sergey Brin para confirmar su asistencia a Burning Man, uno de los festivales más tradicionales en Estados Unidos.

Los fundadores de Google querían comunicarle al mundo –y también al resto de los empleados– que durante siete días no estarían a cargo de la empresa, sino que se encontrarían en Black Rock, Nevada, la ciudad artificial que acoge Burning Man.

Leer más