Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Google Bard es un desastre ético, dicen los propios trabajadores de Google

Google lanzó Bard, su rival ChatGPT, a pesar de las preocupaciones internas de que era un «mentiroso patológico» y producía resultados «vergonzosos», según un nuevo informe. Los trabajadores dicen que estas preocupaciones aparentemente fueron ignoradas en un intento frenético de ponerse al día con ChatGPT y evitar la amenaza que podría representar para el negocio de búsqueda de Google.

Las revelaciones provienen de un informe de Bloomberg que se sumergió profundamente en Google Bard y los problemas planteados por los empleados que han trabajado en el proyecto. Es un relato revelador de las formas en que el chatbot aparentemente se ha descarrilado y las dudas que estos incidentes han suscitado entre los trabajadores preocupados.

ChatGPT versus Google en smartphones.

Por ejemplo, Bloomberg cita a un empleado anónimo que le pidió instrucciones a Bard sobre cómo aterrizar un avión, y luego se horrorizó al ver que la descripción de Bard conduciría a un accidente. Un trabajador diferente dijo que los consejos de buceo de Bard «probablemente resultarían en lesiones graves o la muerte».

Recommended Videos

Estos problemas aparentemente se plantearon poco antes del lanzamiento de Bard, de acuerdo, sin embargo, Google siguió adelante con la fecha de lanzamiento, tal era su deseo de seguir el ritmo del camino abierto por ChatGPT. Pero lo ha hecho sin tener en cuenta sus propios compromisos éticos, lo que resulta no solo en consejos peligrosos, sino también en la posible difusión de información errónea.

Adelantándose apresuradamente al lanzamiento

El chatbot de IA de Google Bard en un navegador web que se muestra en la pantalla de un teléfono inteligente Android.
Mojahid Mottakin / Unsplash

En 2021, Google se comprometió a duplicar su equipo de empleados que estudian las consecuencias éticas de la inteligencia artificial (IA) e invertir más en la determinación de posibles daños. Sin embargo, ese equipo ahora está «desempoderado y desmoralizado», afirma el informe de Bloomberg. Peor aún, a los miembros del equipo se les ha dicho que «no se interpongan en el camino ni intenten matar ninguna de las herramientas generativas de IA en desarrollo», lo que cuestiona el compromiso de Google con la ética de la IA.

Eso se vio en acción justo antes del lanzamiento de Bard. En febrero, un trabajador de Google envió un mensaje a un grupo interno para decir: «Bard es peor que inútil: por favor, no lance», con decenas de otros empleados interviniendo para estar de acuerdo. Al mes siguiente, Jen Gennai, líder de gobernanza de IA de Google, anuló una evaluación de riesgos que decía que Bard podría causar daño y no estaba listo para el lanzamiento, impulsando el primer lanzamiento público del chatbot.

El informe de Bloomberg pinta una imagen de una compañía desconfiada de las preocupaciones éticas que siente que podrían obstaculizar la rentabilidad de sus propios productos. Por ejemplo, un trabajador pidió trabajar en la equidad en el aprendizaje automático, pero se desanimó repetidamente, hasta el punto de que afectó su revisión de desempeño. Los gerentes se quejaron de que las preocupaciones éticas estaban obstruyendo su «trabajo real», declaró el empleado.

Es una postura preocupante, particularmente porque ya hemos visto muchos ejemplos de mala conducta de chatbot de IA que ha producido información ofensiva, engañosa o francamente falsa. Si el informe de Bloomberg es correcto sobre el enfoque aparentemente hostil de Google hacia las preocupaciones éticas, esto podría ser solo el comienzo cuando se trata de problemas causados por la IA.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
El ChatGPT francés de código abierto se pone los pantalones
La imagen muestra una representación de un chatbot.

Andrés Tarantola / Mistral
La startup francesa de IA Mistral anunció el lunes que está incorporando media docena de nuevas características y capacidades en su asistente de trabajo gratuito de IA generativa, apodado le Chat (francés para "el gato"), que pondrán al chatbot de código abierto a la par con los principales modelos fronterizos de OpenAI y Anthropic.

Le Chat ahora puede buscar en la web y proporcionar fuentes citadas, de manera similar a lo que ofrecen Perplexity y SearchGPT. El chatbot de Mistral ahora también ofrece una función de lienzo similar a Claude's Artifacts, donde los usuarios pueden modificar y editar contenido y código. Además, le Chat ahora puede generar imágenes gracias a una integración con Flux Pro de Black Forest Labs, el mismo generador de imágenes que impulsa las capacidades de Grok-2.

Leer más
Esta actualización masiva de ChatGPT llegará en enero, y no es GPT-5
ChatGPT

OpenAI lanzará un nuevo agente de IA en enero, con el nombre en clave Operator, que permitirá a ChatGPT actuar en nombre del usuario. Es posible que nunca más tenga que reservar sus propios vuelos.

El liderazgo de la compañía hizo el anuncio durante una reunión de personal el miércoles, informa Bloomberg. La compañía planea implementar la nueva función como una vista previa de la investigación a través de la API para desarrolladores de la compañía.

Leer más
ChatGPT Search: ya está acá el competidor del buscador de Google
chatgpt search

ChatGPT recibirá su segunda nueva función de búsqueda de la semana, anunció la compañía el jueves. Apodada ChatGPT Search, esta herramienta entregará datos en tiempo real de Internet en respuesta a sus sugerencias de chat.

ChatGPT Search parece ser tanto la respuesta de OpenAI a Perplexity como un tiro en el arco de Google.

Leer más