Google lanzó Bard, su rival ChatGPT, a pesar de las preocupaciones internas de que era un «mentiroso patológico» y producía resultados «vergonzosos», según un nuevo informe. Los trabajadores dicen que estas preocupaciones aparentemente fueron ignoradas en un intento frenético de ponerse al día con ChatGPT y evitar la amenaza que podría representar para el negocio de búsqueda de Google.
Las revelaciones provienen de un informe de Bloomberg que se sumergió profundamente en Google Bard y los problemas planteados por los empleados que han trabajado en el proyecto. Es un relato revelador de las formas en que el chatbot aparentemente se ha descarrilado y las dudas que estos incidentes han suscitado entre los trabajadores preocupados.
Por ejemplo, Bloomberg cita a un empleado anónimo que le pidió instrucciones a Bard sobre cómo aterrizar un avión, y luego se horrorizó al ver que la descripción de Bard conduciría a un accidente. Un trabajador diferente dijo que los consejos de buceo de Bard «probablemente resultarían en lesiones graves o la muerte».
Estos problemas aparentemente se plantearon poco antes del lanzamiento de Bard, de acuerdo, sin embargo, Google siguió adelante con la fecha de lanzamiento, tal era su deseo de seguir el ritmo del camino abierto por ChatGPT. Pero lo ha hecho sin tener en cuenta sus propios compromisos éticos, lo que resulta no solo en consejos peligrosos, sino también en la posible difusión de información errónea.
Adelantándose apresuradamente al lanzamiento
En 2021, Google se comprometió a duplicar su equipo de empleados que estudian las consecuencias éticas de la inteligencia artificial (IA) e invertir más en la determinación de posibles daños. Sin embargo, ese equipo ahora está «desempoderado y desmoralizado», afirma el informe de Bloomberg. Peor aún, a los miembros del equipo se les ha dicho que «no se interpongan en el camino ni intenten matar ninguna de las herramientas generativas de IA en desarrollo», lo que cuestiona el compromiso de Google con la ética de la IA.
Eso se vio en acción justo antes del lanzamiento de Bard. En febrero, un trabajador de Google envió un mensaje a un grupo interno para decir: «Bard es peor que inútil: por favor, no lance», con decenas de otros empleados interviniendo para estar de acuerdo. Al mes siguiente, Jen Gennai, líder de gobernanza de IA de Google, anuló una evaluación de riesgos que decía que Bard podría causar daño y no estaba listo para el lanzamiento, impulsando el primer lanzamiento público del chatbot.
El informe de Bloomberg pinta una imagen de una compañía desconfiada de las preocupaciones éticas que siente que podrían obstaculizar la rentabilidad de sus propios productos. Por ejemplo, un trabajador pidió trabajar en la equidad en el aprendizaje automático, pero se desanimó repetidamente, hasta el punto de que afectó su revisión de desempeño. Los gerentes se quejaron de que las preocupaciones éticas estaban obstruyendo su «trabajo real», declaró el empleado.
Es una postura preocupante, particularmente porque ya hemos visto muchos ejemplos de mala conducta de chatbot de IA que ha producido información ofensiva, engañosa o francamente falsa. Si el informe de Bloomberg es correcto sobre el enfoque aparentemente hostil de Google hacia las preocupaciones éticas, esto podría ser solo el comienzo cuando se trata de problemas causados por la IA.