Skip to main content

Así es como la IA de Google “actúa” en momentos de crisis personal

Google, debido a que tiene como misión ayudar a encontrar información relevante, es una de las fuentes más fiables. Pero ¿qué pasa en los momentos de crisis personal? ¿Cómo es que actúan los “sistemas avanzados de la inteligencia artificial (IA)” para proporcionar una búsqueda segura en situaciones críticas?

“Sabemos que las personas acuden a la Búsqueda para encontrar información confiable en los momentos que más importan. Hoy, si buscas en Google información sobre suicidio, agresión sexual, abuso de sustancias y violencia doméstica, verás datos de contacto para las líneas directas nacionales relevantes junto con los resultados más importantes y de alta calidad disponibles”, precisa la firma con sede en Mountain View, California.

Te va a interesar:

Incluso cuando los términos o inquietudes utilizados por quien requiere ayuda no demuestran eso, la compañía echa mano de su último modelo de IA.

“MUM es capaz de comprender mejor la intención detrás de las preguntas para detectar cuando una persona está necesitada. Esto nos ayuda a mostrar de manera más fidedigna información confiable y práctica en el momento adecuado. Empezaremos a usar MUM para hacer estas mejoras en las próximas semanas”, acota Google.

En el primer semestre de 2021, la firma presentó su Multitask Unified Model (MUM) como un hito de la IA para entender la información. Añadió que es multimodal, por lo que comprende elementos a través de texto e imágenes “y, en el futuro, puede expandirse a más modalidades como video y audio”.

La tecnológica asevera que el desarrollo es capaz de transferir conocimientos mediante los 75 idiomas en los que está entrenado, lo que significa la posibilidad de escalar las protecciones de seguridad en todo el mundo de manera más eficiente. En otras palabras, cuando se entrena para realizar una tarea, como clasificar la naturaleza de una consulta, aprende a hacerlo en todos los idiomas que conoce.

Lejos del contenido impactante

De acuerdo con Google, mantener a las personas seguras también implica alejarlas del contenido que no están buscando, lo cual es un desafío porque los creadores de contenido usan en ocasiones términos “benignos” para etiquetar contenido explícito o sugerente.

La respuesta a ello es el modo SafeSearch, que ofrece la alternativa de filtrar resultados explícitos y es el predeterminado en cuentas de Google de menores de 18 años.

“Incluso cuando los usuarios eligen tener SafeSearch desactivado, nuestros sistemas reducen los resultados subidos de tono y no deseados para las búsquedas que parecen no tener intención de encontrarlos. De hecho, nuestros algoritmos de seguridad mejoran todos los días cientos de millones de búsquedas en todo el mundo a lo largo de las búsquedas web, de imagen y de video”, reitera la compañía.

BERT, otra de las tecnologías avanzadas de IA, también se emplea con el propósito de reducir los datos inesperados al comprender mejor lo que cada uno requiere.

“Los modelos de BERT pueden considerar el contexto completo de una palabra al observar los términos que vienen antes y después, lo que es útil para comprender la intención detrás de las consultas de búsqueda”, indicaron en su momento los de Mountain View.

Ahora, este avance “ha mejorado nuestra comprensión” sobre si las búsquedas realmente tienen la intención de encontrar contenido explícito.

Google agrega que la mejora de BERT aminoró en el último año la presencia de resultados inesperados en 30 por ciento. “Ha tenido un impacto especial en la reducción del contenido explícito para búsquedas relacionadas con el origen étnico, la orientación sexual y el género, lo que puede afectar de manera desproporcionada a las mujeres, especialmente a las de color”.

Recomendaciones del editor