Skip to main content

¿Microsoft sabía sobre las respuestas desquiciadas de Bing Chat?

Bing Chat AI de Microsoft ha tenido un comienzo difícil, pero parece que la compañía pudo haber sabido sobre los problemas mucho antes de su debut público. Una publicación de soporte en el sitio web de Microsoft hace referencia a respuestas «groseras» del bot de chat «Sidney», que es una historia que hemos estado escuchando durante la semana pasada. Aquí está el problema: la publicación se realizó el 23 de noviembre de 2022.

La revelación proviene de Ben Schmidt, vicepresidente de diseño de información de Nomic, quien compartió la publicación con Gary Marcus, un autor que cubre IA y fundador de Geometric Intelligence. La historia cuenta que Microsoft probó Bing Chat, llamado Sidney, según la publicación, en India e Indonesia en algún momento entre noviembre y enero antes de que hiciera el anuncio oficial.

Una publicación de la comunidad sobre Bing Chat.

Microsoft compartió la siguiente declaración:

«Sydney es un nombre en clave antiguo para una función de chat basada en modelos anteriores que comenzamos a probar hace más de un año. Las ideas que recopilamos como parte de eso han ayudado a informar nuestro trabajo con la nueva versión preliminar de Bing. Continuamos afinando nuestras técnicas y estamos trabajando en modelos más avanzados para incorporar los aprendizajes y comentarios para que podamos ofrecer la mejor experiencia de usuario posible. Continuaremos compartiendo actualizaciones sobre el progreso a través de nuestro blog».

La publicación inicial muestra al bot de IA discutiendo con el usuario y estableciéndose en las mismas formas de oración que vimos cuando Bing Chat dijo que quería «ser humano». Más abajo en el hilo, otros usuarios intervinieron con sus propias experiencias, volviendo a publicar el ahora infame emoji sonriente con el que Bing Chat sigue la mayoría de sus respuestas.

Para empeorar las cosas, el póster inicial dijo que pidieron proporcionar comentarios e informar sobre el chatbot, dando cierta credibilidad de que Microsoft era consciente de los tipos de respuestas que su IA era capaz de hacer.

Eso va en contra de lo que Microsoft dijo en los días posteriores a la explosión del chatbot en los medios. En un anuncio que cubre los próximos cambios en Bing Chat, Microsoft dijo que el «entretenimiento social», que presumiblemente se refiere a las formas en que los usuarios han tratado de engañar a Bing Chat para obtener respuestas provocativas, era un «nuevo caso de usuario para el chat».

Microsoft ha realizado varios cambios en la IA desde su lanzamiento, incluida la reducción de la duración de las conversaciones. Este es un esfuerzo para frenar los tipos de respuestas que vimos circular unos días después de que Microsoft anunciara por primera vez Bing Chat. Microsoft dice que actualmente está trabajando para aumentar los límites de chat.

Aunque la historia detrás de las pruebas de Microsoft de Bing Chat sigue en el aire, está claro que la IA había estado en la planificación por un tiempo. A principios de este año, Microsoft realizó una inversión multimillonaria en OpenAI tras el éxito de ChatGPT, y Bing Chat se basa en una versión modificada del modelo GPT de la compañía. Además, Microsoft publicó un blog sobre «IA responsable» pocos días antes de anunciar Bing Chat al mundo.

Hay varias cuestiones éticas en torno a la IA y su uso en un motor de búsqueda como Bing, así como la posibilidad de que Microsoft apresuró Bing Chat antes de que estuviera listo y sabiendo de lo que era capaz. La publicación de soporte en cuestión se actualizó por última vez el 21 de febrero de 2023, pero el historial de la pregunta inicial y las respuestas muestran que no se han revisado desde su fecha de publicación original.

Es posible que Microsoft decidiera seguir adelante de todos modos, sintiendo la presión del próximo Google Bard y el aumento trascendental de la popularidad de ChatGPT.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Microsoft liberó accidentalmente 38 TB de datos privados
Microsoft Surface Laptop 5

Se acaba de revelar que los investigadores de Microsoft filtraron accidentalmente 38TB de información confidencial en la página GitHub de la compañía, donde potencialmente cualquiera podría verla. Entre el tesoro de datos había una copia de seguridad de las estaciones de trabajo de dos ex empleados, que contenían claves, contraseñas, secretos y más de 30,000 mensajes privados de Teams.

Según la firma de seguridad en la nube Wiz, la filtración se publicó en el repositorio GitHub de inteligencia artificial (IA) de Microsoft y se incluyó accidentalmente en un tramo de datos de entrenamiento de código abierto. Eso significa que se alentó a los visitantes a descargarlo, lo que significa que podría haber caído en las manos equivocadas una y otra vez.
Stock Depot / Getty Images
Las violaciones de datos pueden provenir de todo tipo de fuentes, pero será particularmente vergonzoso para Microsoft que esta se haya originado con sus propios investigadores de IA. El informe de Wiz indica que Microsoft cargó los datos utilizando tokens de firma de acceso compartido (SAS), una característica de Azure, que permite a los usuarios compartir datos a través de cuentas de Azure Storage.

Leer más
Las mejores marcas de laptops que puedes comprar en 2023
Las mejores marcas de laptops que puedes comprar en 2023.

Puede que la nnecesites para trabajar, escribir, navegar o jugar. Y da igual si trabajas en una oficina, en tu casa o en un café: siempre vas a necesitar una laptop que se ajuste a tus necesidades, y aunque el mercado está repleto de modelos, esto trae también un pequeño problema, ya que hay demasiado para elegir.

La mejor manera de reducir tus opciones es centrándote en los nombres establecidos y respetados. ¿No sabes por dónde comenzar? Te damos aquí una lista con las mejores marcas de laptops que puedes comprar en 2023.

Leer más
Se acabó la luna de miel: el tráfico de ChatGPT baja por tercer mes consecutivo
trafico de chatgpt baja por tercer mes consecutivo rolf van root lyi1t85lry8 unsplash

En concordancia con las leyes físicas de Newton, todo lo que sube tiene que bajar y la gravedad está haciendo de las suyas con ChatGPT, que después de un explosivo crecimiento en los primeros meses de 2023, empezó su caída en tráfico,  según la firma de análisis Similarweb.

Las visitas mundiales de sitios web de escritorio y móviles al sitio web de ChatGPT disminuyeron un 3,2% a 1.43 millones en agosto, luego de caídas de aproximadamente el 10% con respecto a cada uno de los dos meses anteriores. La cantidad de tiempo que los visitantes pasaron en el sitio web también ha disminuido mensualmente desde marzo, de un promedio de 8.7 minutos en el sitio a 7 minutos en el sitio en agosto.

Leer más