Skip to main content

Google le dice a los trabajadores que desconfíen de la IA

Alphabet ha dicho a sus empleados que no ingresen información confidencial en Bard, el chatbot generativo de IA creado y operado por Google, que posee Alphabet.

La advertencia de la compañía también se extiende a otros chatbots, como ChatGPT de OpenAI, respaldado por Microsoft, informó Reuters el jueves.

Los chatbots impulsados por IA han generado un gran interés en los últimos meses debido a su impresionante capacidad para conversar de una manera humana, escribir ensayos e informes, e incluso tener éxito en las pruebas académicas.

Pero a Alphabet le preocupa que sus trabajadores filtren inadvertidamente datos internos a través de las herramientas.

Imagen utilizada con permiso del titular de los derechos de autor

En el trabajo en curso para refinar y mejorar la tecnología avanzada de IA, los revisores humanos pueden leer las conversaciones que los usuarios tienen con los chatbots, lo que representa un riesgo para la privacidad personal y también la posible exposición de secretos comerciales, el último de los cuales Alphabet parece estar particularmente preocupado.

Además, los chatbots se entrenan en parte utilizando los intercambios de texto de los usuarios, por lo que con ciertas indicaciones, la herramienta podría repetir la información confidencial que recibe en esas conversaciones a los miembros del público.

Al igual que ChatGPT, Bard ahora está disponible gratuitamente para que cualquiera lo pruebe. En su página web, advierte a los usuarios: «Por favor, no incluya información que pueda usarse para identificarlo a usted o a otros en sus conversaciones de Bard».

Agrega que Google recopila «conversaciones de Bard, información relacionada con el uso del producto, información sobre su ubicación y sus comentarios» y utiliza los datos para mejorar los productos y servicios de Google que incluyen Bard.

Google dice que almacena la actividad de Bard por hasta 18 meses, aunque un usuario puede cambiar esto a tres o 36 meses en su cuenta de Google.

Agrega que, como medida de privacidad, las conversaciones de Bard se desconectan de una cuenta de Google antes de que un revisor humano las vea.

Reuters dijo que si bien la advertencia de Alphabet ha estado vigente por un tiempo, recientemente la amplió, diciéndoles a sus trabajadores que eviten usar código informático preciso generado por chatbots. La compañía le dijo al medio de noticias que Bard a veces puede hacer «sugerencias de código no deseadas», aunque la iteración actual de la herramienta todavía se considera una ayuda de programación viable.

Alphabet no es la única compañía que advierte a sus empleados sobre los riesgos de privacidad y seguridad relacionados con el uso de los chatbots. Samsung emitió recientemente una instrucción similar a sus trabajadores después de que varios de ellos introdujeron datos confidenciales relacionados con semiconductores en ChatGPT, y Apple y Amazon, entre otros, también han promulgado una política interna similar.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Creador de contenido, la IA te hará más fácil el trabajo en Youtube
youtube lluvia de ideas gemini ia creador contenido

Los creadores de contenido de YouTube pronto podrían hacer una lluvia de ideas sobre el tema, el título y las miniaturas de los videos con Gemini AI como parte del experimento "lluvia de ideas con Gemini" que Google está probando actualmente, anunció la compañía a través de su canal Creator Insider.

La función se lanzará primero a un pequeño número de creadores de contenido seleccionados para su crítica, como dijo un portavoz de la compañía a TechCrunch, antes de que la compañía decida si implementarla para todos los usuarios. "Estamos recopilando comentarios en esta etapa para asegurarnos de que estamos desarrollando estas características de manera reflexiva y mejoraremos la función en función de los comentarios", dijo el anfitrión del video.
YouTube (en inglés)
Se podrá acceder a la función a través del menú de análisis de la plataforma, en la pestaña de investigación, y generará sugerencias de ideas para el tema del video, puntos de conversación específicos y progresión, incluso sugerencias de miniaturas utilizando las capacidades de generación de imágenes del modelo de lenguaje grande de Google.

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más
Elon Musk vuelve a la carga contra OpenAI: «la larga estafa de Altman»
Elon Musk

Elon Musk no quiere darle aire a Sam Altman y a su empresa OpenAI, ya que tras retirar una demanda anterior, volvió a la carga contra la compañía madre de ChatGPT.

La nueva demanda presentada en un tribunal federal en el norte de California el lunes dice que Altman y Greg Brockman "manipularon asiduamente a Musk para que cofundara su falsa empresa sin fines de lucro" al prometer que OpenAI sería más segura y transparente que las alternativas impulsadas por las ganancias. La demanda afirma que las garantías sobre la estructura sin fines de lucro de OpenAI fueron "el gancho de la larga estafa de Altman".

Leer más