Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Google Bard es un desastre ético, dicen los propios trabajadores de Google

Google lanzó Bard, su rival ChatGPT, a pesar de las preocupaciones internas de que era un «mentiroso patológico» y producía resultados «vergonzosos», según un nuevo informe. Los trabajadores dicen que estas preocupaciones aparentemente fueron ignoradas en un intento frenético de ponerse al día con ChatGPT y evitar la amenaza que podría representar para el negocio de búsqueda de Google.

Las revelaciones provienen de un informe de Bloomberg que se sumergió profundamente en Google Bard y los problemas planteados por los empleados que han trabajado en el proyecto. Es un relato revelador de las formas en que el chatbot aparentemente se ha descarrilado y las dudas que estos incidentes han suscitado entre los trabajadores preocupados.

ChatGPT versus Google en smartphones.

Por ejemplo, Bloomberg cita a un empleado anónimo que le pidió instrucciones a Bard sobre cómo aterrizar un avión, y luego se horrorizó al ver que la descripción de Bard conduciría a un accidente. Un trabajador diferente dijo que los consejos de buceo de Bard «probablemente resultarían en lesiones graves o la muerte».

Estos problemas aparentemente se plantearon poco antes del lanzamiento de Bard, de acuerdo, sin embargo, Google siguió adelante con la fecha de lanzamiento, tal era su deseo de seguir el ritmo del camino abierto por ChatGPT. Pero lo ha hecho sin tener en cuenta sus propios compromisos éticos, lo que resulta no solo en consejos peligrosos, sino también en la posible difusión de información errónea.

Adelantándose apresuradamente al lanzamiento

El chatbot de IA de Google Bard en un navegador web que se muestra en la pantalla de un teléfono inteligente Android.
Mojahid Mottakin / Unsplash

En 2021, Google se comprometió a duplicar su equipo de empleados que estudian las consecuencias éticas de la inteligencia artificial (IA) e invertir más en la determinación de posibles daños. Sin embargo, ese equipo ahora está «desempoderado y desmoralizado», afirma el informe de Bloomberg. Peor aún, a los miembros del equipo se les ha dicho que «no se interpongan en el camino ni intenten matar ninguna de las herramientas generativas de IA en desarrollo», lo que cuestiona el compromiso de Google con la ética de la IA.

Eso se vio en acción justo antes del lanzamiento de Bard. En febrero, un trabajador de Google envió un mensaje a un grupo interno para decir: «Bard es peor que inútil: por favor, no lance», con decenas de otros empleados interviniendo para estar de acuerdo. Al mes siguiente, Jen Gennai, líder de gobernanza de IA de Google, anuló una evaluación de riesgos que decía que Bard podría causar daño y no estaba listo para el lanzamiento, impulsando el primer lanzamiento público del chatbot.

El informe de Bloomberg pinta una imagen de una compañía desconfiada de las preocupaciones éticas que siente que podrían obstaculizar la rentabilidad de sus propios productos. Por ejemplo, un trabajador pidió trabajar en la equidad en el aprendizaje automático, pero se desanimó repetidamente, hasta el punto de que afectó su revisión de desempeño. Los gerentes se quejaron de que las preocupaciones éticas estaban obstruyendo su «trabajo real», declaró el empleado.

Es una postura preocupante, particularmente porque ya hemos visto muchos ejemplos de mala conducta de chatbot de IA que ha producido información ofensiva, engañosa o francamente falsa. Si el informe de Bloomberg es correcto sobre el enfoque aparentemente hostil de Google hacia las preocupaciones éticas, esto podría ser solo el comienzo cuando se trata de problemas causados por la IA.

Recomendaciones del editor

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Meta está trabajando en una IA que dice es más potente que GPT-4
Mark Zuckerberg Meta

El propietario de Facebook, Meta, está trabajando en un sistema de inteligencia artificial (IA) que espera sea más poderoso que GPT-4, el modelo de lenguaje grande desarrollado por OpenAI que impulsa ChatGPT Plus. Si tiene éxito, eso podría agregar mucha más competencia al mundo de los chatbots generativos de IA, y potencialmente traer consigo una serie de problemas graves.

Según The Wall Street Journal, Meta apunta a lanzar su nuevo modelo de IA en 2024. Según los informes, la compañía quiere que el nuevo modelo sea "varias veces más poderoso" que Llama 2, la herramienta de inteligencia artificial que lanzó en julio de 2023.
Brett Johnson / Unsplash
Meta planea que el próximo sistema de IA "ayude a otras compañías a crear servicios que produzcan texto, análisis y otros resultados sofisticados", afirma The Wall Street Journal. El entrenamiento para la IA comenzará a principios de 2024, y se espera un lanzamiento oficial en algún momento después de que Google lance su propio modelo de lenguaje grande, denominado Gemini.

Leer más
ChatGPT está violando su privacidad dice la GDPR
ChatGPT

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
Joe Maring / DT
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Leer más
El malware se está propagando a través de los anuncios de Google Bard
Google Bard: ¿cómo unirte a la lista de espera para probar esta IA?

A medida que el público se adapta a confiar en la inteligencia artificial, también se crea un entorno perfecto para que los piratas informáticos atrapen a los usuarios de Internet para que descarguen malware.

El último objetivo es el chatbot de Google Bard, que se está utilizando como señuelo para aquellos en línea para que, sin saberlo, hagan clic en anuncios que están infectados con código nefasto. Los anuncios están diseñados como si estuvieran promocionando Google Bard, lo que los hace parecer seguros. Sin embargo, una vez que se hace clic en ellos, los usuarios serán dirigidos a una página web plagada de malware en lugar de una página oficial de Google.
Investigación de ESET / Investigación de ESET
Los investigadores de seguridad de ESET observaron por primera vez las discrepancias en los anuncios, que incluyen varios errores gramaticales y ortográficos en la copia, así como un estilo de escritura que no está a la par con el estándar de Google, según TechRadar.

Leer más