Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Google Bard es un desastre ético, dicen los propios trabajadores de Google

Google lanzó Bard, su rival ChatGPT, a pesar de las preocupaciones internas de que era un «mentiroso patológico» y producía resultados «vergonzosos», según un nuevo informe. Los trabajadores dicen que estas preocupaciones aparentemente fueron ignoradas en un intento frenético de ponerse al día con ChatGPT y evitar la amenaza que podría representar para el negocio de búsqueda de Google.

Las revelaciones provienen de un informe de Bloomberg que se sumergió profundamente en Google Bard y los problemas planteados por los empleados que han trabajado en el proyecto. Es un relato revelador de las formas en que el chatbot aparentemente se ha descarrilado y las dudas que estos incidentes han suscitado entre los trabajadores preocupados.

ChatGPT versus Google en smartphones.

Por ejemplo, Bloomberg cita a un empleado anónimo que le pidió instrucciones a Bard sobre cómo aterrizar un avión, y luego se horrorizó al ver que la descripción de Bard conduciría a un accidente. Un trabajador diferente dijo que los consejos de buceo de Bard «probablemente resultarían en lesiones graves o la muerte».

Recommended Videos

Estos problemas aparentemente se plantearon poco antes del lanzamiento de Bard, de acuerdo, sin embargo, Google siguió adelante con la fecha de lanzamiento, tal era su deseo de seguir el ritmo del camino abierto por ChatGPT. Pero lo ha hecho sin tener en cuenta sus propios compromisos éticos, lo que resulta no solo en consejos peligrosos, sino también en la posible difusión de información errónea.

Adelantándose apresuradamente al lanzamiento

El chatbot de IA de Google Bard en un navegador web que se muestra en la pantalla de un teléfono inteligente Android.
Mojahid Mottakin / Unsplash

En 2021, Google se comprometió a duplicar su equipo de empleados que estudian las consecuencias éticas de la inteligencia artificial (IA) e invertir más en la determinación de posibles daños. Sin embargo, ese equipo ahora está «desempoderado y desmoralizado», afirma el informe de Bloomberg. Peor aún, a los miembros del equipo se les ha dicho que «no se interpongan en el camino ni intenten matar ninguna de las herramientas generativas de IA en desarrollo», lo que cuestiona el compromiso de Google con la ética de la IA.

Eso se vio en acción justo antes del lanzamiento de Bard. En febrero, un trabajador de Google envió un mensaje a un grupo interno para decir: «Bard es peor que inútil: por favor, no lance», con decenas de otros empleados interviniendo para estar de acuerdo. Al mes siguiente, Jen Gennai, líder de gobernanza de IA de Google, anuló una evaluación de riesgos que decía que Bard podría causar daño y no estaba listo para el lanzamiento, impulsando el primer lanzamiento público del chatbot.

El informe de Bloomberg pinta una imagen de una compañía desconfiada de las preocupaciones éticas que siente que podrían obstaculizar la rentabilidad de sus propios productos. Por ejemplo, un trabajador pidió trabajar en la equidad en el aprendizaje automático, pero se desanimó repetidamente, hasta el punto de que afectó su revisión de desempeño. Los gerentes se quejaron de que las preocupaciones éticas estaban obstruyendo su «trabajo real», declaró el empleado.

Es una postura preocupante, particularmente porque ya hemos visto muchos ejemplos de mala conducta de chatbot de IA que ha producido información ofensiva, engañosa o francamente falsa. Si el informe de Bloomberg es correcto sobre el enfoque aparentemente hostil de Google hacia las preocupaciones éticas, esto podría ser solo el comienzo cuando se trata de problemas causados por la IA.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más
¿Google llegó tu hora?: Debuta SearchGPT, el buscador de OpenAI
SearchGPT

Este 25 de julio podría quedar marcado a fuego en la industria de internet y los buscadores web, ya que OpenAI anunció su tan esperado SearchGPT, que pretende estar a la par de Google y disputarle el trono.

"Estamos probando SearchGPT, un prototipo temporal de las nuevas funciones de búsqueda de IA que le brindan respuestas rápidas y oportunas con fuentes claras y relevantes", comenta de inicio la empresa tras ChatGPT de Sam Altman.

Leer más
Google contraataca con su propio modelo de IA ligero
google modelo ia ligero gemini 1 5 flash

Google anunció el jueves que lanzará Gemini 1.5 Flash, su modelo de lenguaje grande del tamaño de un bocadillo y el mini competidor de ChatGPT-4o, para todos los usuarios, independientemente de su nivel de suscripción.

La compañía promete "mejoras en todos los ámbitos" en términos de calidad de respuesta y latencia, así como "mejoras especialmente notables en el razonamiento y la comprensión de imágenes".

Leer más