Skip to main content

Las sugerencias de Google fomentan búsquedas transfóbicas

Cuando tenemos una duda, es común que intentemos resolverla en Google, y con cada carácter que escribimos, su inteligencia artificial adivina lo que podríamos buscar. Sin embargo, aunque muchas sugerencias son útiles, las predicciones de Google también suelen reflejar las tendencias más viles y discriminatorias de internet, en especial las transfóbicas.

Durante casi dos décadas, Google ha analizado todo lo que la gente escribe en su cuadro de búsqueda para predecir lo que los usuarios podrían pensar. Entonces, al procesar más de 3,000 millones de solicitudes al día, el motor de búsqueda más popular de la Tierra prácticamente lee los pensamientos de las personas.

La barra de búsqueda de Google.

Las sugerencias transfóbicas en Google

En los últimos meses, JD Shadel, del sitio Them, rastreó las sugerencias de autocompletado de los principales motores de búsqueda sobre una amplia gama de figuras públicas trans y de género no conforme. Lo hizo mediante ventanas de navegación privadas y con una red privada virtual (VPN) para eludir la personalización de la búsqueda y camuflar su dirección IP.

Shadel señaló que con casi todos los nombres que buscó, como Laverne Cox, Angelica Ross, Tommy Dorfman y más, el autocompletado le incitó a hacer preguntas con matices transfóbicas, relacionadas con el nombre, apariencia o identidad de género, entre otras, de una celebridad antes de la transición.

Estas predicciones incluían términos como “Fotos [X] antes de la transición”, “X como hombre”, “X antes de la cirugía”, “¿X está con hormonas?” y “¿[X] un tipo?”.

Otras predicciones le incitaban a averiguar el nombre anterior de las celebridades (también conocido como “nombre muerto”) o a asignar géneros de manera incorrecta (misgendering), como agregar “hombre” después del nombre de una mujer trans y “mujer” después del nombre de un hombre trans.

JD Shadel / Them

Esas frases le aparecieron a Shadel con frecuencia entre las principales sugerencias dentro de las predicciones, pero también surgieron en “la gente también pregunta” y en la “búsqueda relacionada” en la primera página de los resultados de búsqueda.

Y si bien Google es la entidad más relevante en el espacio de los motores de búsqueda, con alrededor de 86 por ciento de la participación en el mercado, el problema se duplicó en motores mucho menos populares, como Microsoft Bing y Yahoo, que ofrecían sugerencias de autocompletado transfóbicas similares.

En general, Shadel documentó más de 225 sugerencias de búsqueda de Google transfóbicas para más de 50 celebridades trans en el último trimestre, que incluyen nombres como Chaz Bono, Lana y Lilly Wachowski, Lia Thomas, Indya Moore, Chelsea Manning, Elliot Page, Michaela Jaé Rodríguez, Hunter Schafer y muchos más.

Si se considera que esta investigación la realizó solo una persona, la conclusión es que probablemente Shadel solo rascó la superficie de los problemas relacionados con los resultados de búsqueda de las principales figuras trans del mundo.

Lo que dicen los expertos en salud trans

Anna Moneymaker / NYT / Redux

Shadel se acercó a académicos y profesionales de la salud mental para discutir el tema; lo que les preocupaba era que la ubicuidad de este comportamiento de búsqueda predictivo ya haya tenido consecuencias de largo alcance.

“Estas sugerencias de búsqueda son una manifestación de la transfobia generalizada en nuestros climas culturales, sociales y políticos actuales”, dijo Alex Iantaffi, terapeuta líder en salud trans e integrante de la Asociación Profesional Mundial para la Salud Transgénero.

“Como tales, contribuyen a la lucha que enfrentan muchas personas trans y no binarias cuando exploran su género o comparten su identidad y expresión con el mundo”, agregó.

Iantaffi contextualiza este comportamiento de búsqueda predictivo dentro de un sistema más amplio de control de género en internet, el cual ignora y deslegitima con frecuencia la “humanidad” de las personas trans.

Yana Paskova/Getty Images

Asimismo, encontrar transfobia repetidamente en una tarea tan cotidiana como lo es buscar algo en Google, dice Ianntaffi, puede contribuir a niveles más altos de depresión, ansiedad, uso de sustancias y tendencias suicidas.

“Estos niveles altos de resultados negativos para la salud mental son comunes en muchas comunidades minoritarias, y no por el estado de marginación de las personas, sino por la opresión sistémica que enfrentan incluso cuando se dedican a las tareas más simples, como buscar información, caminar por la calle o ir al baño”, dijo Iantaffi.

Cuando el motor de búsqueda más poderoso del mundo empuja a los usuarios a buscar el “nombre real” de una celebridad trans famosa o a preguntar si cierta figura pública “es hombre”, implica que estas son preguntas válidas para hacer sobre cualquier persona trans, aseguran los expertos.

Esto perpetúa el entorno discriminatorio y hostil que experimentan las personas trans cuando entran al mundo en línea.

La reacción de Google

Un día después de que Shadel le expuso este problema al equipo de relaciones públicas de Google, la compañía comenzó a eliminar algunos de los ejemplos más flagrantes de confusión de género en las sugerencias de búsqueda de figuras trans prominentes.

La compañía se basa en un sistema de filtrado automatizado para evitar que su inteligencia artificial haga sugerencias que violen sus políticas, además de usar reportes y realizar correcciones manuales. Si bien este sistema detecta muchos problemas, no está capacitado para reconocer todos los matices del discurso de odio dentro de varias comunidades marginadas.

Tres días después de que Shadel se comunicó, un portavoz de Google dijo: “Hemos eliminado estas y otras predicciones relacionadas según nuestras políticas”.

La compañía también mencionó que está “trabaja para implementar protecciones automatizadas más sólidas” y así abordar inquietudes específicas como estas. Sin embargo, no dio detalles sobre cómo implementaría tales protecciones o si tiene planes de consultar con la comunidad trans la creación de esas protecciones.

Por un lado, es cierto que Google no es responsable del discurso discriminatorio que reflejan con frecuencia sus resultados de búsqueda.

“En una sociedad supremacista blanca, cisnormativa, heterosexista, capacitista, gordofóbica, capitalista y colonial, las búsquedas de las personas reflejan todas esas formas de desigualdad estructural y cultural”, dijo la académica Sasha Costanza-Chock, autora de Design Justice y directora de investigación de la Liga de la Justicia Algorítmica.

Si se erradican todas las formas de violencia antitrans y discriminación de género en todos los niveles de la sociedad, el comportamiento de búsqueda y los intereses cambiarían para mejor. “Sería menos probable que el autocompletado sugiriera nombres muertos o buscar fotografías de las personas antes de la cirugía, o buscar su ‘nombre real’”, agregó.

Si bien Google no tiene el control directo sobre los males sociales reflejados en sus sugerencias de búsqueda, lo que hizo fue “diseñar su espejo”.

“La desigualdad programada en los sistemas sociotécnicos como las interfaces de búsqueda no les da un pase a las empresas y los equipos que los fabrican, porque ellos conocen estos problemas”, dijo Costanza-Chock.

Timnit Gebru. Kimberly White/Getty Images

Timnit Gebru, la estrella en ética de inteligencia artificial de Google e investigadora líder en el campo, se vio obligada a dejar la empresa en diciembre de 2020.

Su trabajo expuso los riesgos de los grandes modelos de lenguaje, es decir, los algoritmos de aprendizaje profundo “entrenados en cantidades masivas de datos de texto”, como los que impulsan las funciones de búsqueda modernas.

Pero la investigación que finalmente obligó a Gebru a salir de Google encontró que, además de los costos ambientales y de desinformación, los modelos se basan en un “lenguaje racista, sexista y abusivo” en virtud de su gran tamaño, y estos pueden fallar en comprender los matices de lo que constituye un discurso discriminatorio.

De acuerdo con la académica, durante décadas las personas les han indicado a los motores de búsqueda todas las formas en que los diferentes aspectos de la búsqueda pueden ser dañinos.

“Google no se lanzó ayer. Si quisieran, podrían elegir hacer lo correcto e invertir recursos significativos para tratar de comprender realmente este problema y encontrar formas de abordarlo”, cerró Costanza-Chock.

Recomendaciones del editor