Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

No más sesgos: IA de Google elimina etiquetas de género

Las calificaciones de “mujer” y “hombre” se acabaron para la inteligencia artificial (IA) de Google, en particular en lo que respecta a la interfaz de programación de aplicaciones (API por su sigla en inglés) Cloud Vision.

Pensada en desarrolladores, la herramienta adjunta etiquetas a las fotografías para identificar los contenidos, entre ellas el género cuando en las imágenes detecta que hay personas.

Recommended Videos

Entre otros elementos, Cloud Vision “puede detectar caras, puntos de referencia, logotipos de marcas e incluso contenido explícito”, informó Business Insider.

El medio reveló que Google notificó de su decisión a los desarrolladores a través de un correo electrónico. En lugar de las etiquetas de género, clasificará a cualquier ser humano simplemente como «persona».

¿Cuál fue la razón? Simple: Google asumió que no es posible inferir el género de alguien únicamente a partir de su apariencia y que, por lo demás, dicha denominación puede trasgredir sus normas éticas. “Evite crear o reforzar sesgos injustos», reza el Principio #2.

Business Insider subrayó que el sesgo en la IA es un tema “ampliamente discutido”, respecto del cual los investigadores han manifestado su preocupación, pues datos defectuosos pueden exacerbar o crear suposiciones injustas.

“Un ejemplo son los algoritmos de reconocimiento facial que identifican erróneamente a las personas de color con más frecuencia que las personas blancas”, graficó el medio.

La medida fue calificada como «muy positiva» por Frederike Kaltheuner, experta en sesgo de inteligencia artificial y quien colabora con Mozilla en temas de política tecnológica. Según reflexionó, “cada vez que se clasifica automáticamente a las personas, ya sea por su género u orientación sexual, debes decidir qué categorías usas en primer lugar, y eso acarrea muchas suposiciones”.

«Clasificar a las personas como hombres o mujeres supone que el género es binario. Cualquiera que no se ajuste automáticamente se clasificará de manera errónea y se generará un error. Por lo tanto, se trata de algo más que un prejuicio: el género de una persona no puede inferirse por apariencia. Cualquier sistema de IA que lo haya intentado hacer eso inevitablemente confundirá a las personas», comentó a la misma publicación.

Citados por Business Insider, Google reconoce en sus principios de IA que los algoritmos y los conjuntos de datos pueden reforzar el sesgo: «Buscaremos evitar impactos injustos en las personas, particularmente aquellas relacionadas con características sensibles como raza, origen étnico, género, nacionalidad, ingresos, orientación sexual, capacidad y creencia política o religiosa».

Juan José Castillo
Former Digital Trends Contributor
Juan José se ha desempeñado por cerca de dos décadas como periodista en medios de comunicación e instituciones públicas…
Una mujer hospitalizada por un anuncio de Pluribus en su refrigerador
Indoors, Elevator

En un incidente que expone los riesgos no anticipados de la publicidad personalizada en dispositivos inteligentes del hogar, una mujer en el Reino Unido fue internada en un departamento de accidentes y emergencias después de malinterpretar un anuncio promocional en su refrigerador Samsung. El mensaje "We're sorry we upset you, Carol" ("Lo sentimos, te molestamos, Carol"), que forma parte de una campaña de Apple TV+ para promocionar la serie "Pluribus", fue interpretado por la paciente como un mensaje dirigido directamente a ella.

La mujer sufre esquizofrenia y experimentaba episodios psicóticos aproximadamente una vez cada dos años. Al ver el anuncio en la pantalla LED del electrodoméstico, creyó que alguien intentaba comunicarse con ella y solicitó inmediatamente un taxi a la sala de emergencias. Permaneció bajo observación médica durante dos días mientras su medicación era reajustada, antes de que su hermano identificara la fuente del mensaje en publicaciones compartidas en Facebook.

Read more
Pornhub resumen 2025: las búsquedas más secretas y prohibidas de internet
Text, Number, Symbol

El informe anual "Year in Review" de Pornhub, plataforma de entretenimiento adulto más grande del mundo, reveló un panorama fascinante de las tendencias de búsqueda y consumo de contenido en 2025, año marcado por cambios políticos significativos a nivel mundial que impactaron tanto las preferencias de usuarios como la disponibilidad de la plataforma en ciertos mercados. Los datos, compilados a partir de miles de millones de búsquedas, ofrecen una ventana sin filtros a los intereses y fantasías del público global, documentando no solo cambios en gustos sino también transformaciones culturales más amplias.

Hentai se consolida como reinante indiscutible durante cinco años consecutivos

Read more
Bullying a McDonald’s tras usar IA en una publicidad que tuvo que bajar
Machine, Wheel, Adult

El mundo publicitario ha comenzado a cuestionarse seriamente si la apuesta por la inteligencia artificial generativa es realmente la solución milagrosa que prometía ser. Ese debate se intensificó esta semana cuando McDonald's retiró su anuncio navideño creado íntegramente con IA tras una avalancha de críticas en redes sociales, exponiendo las grietas en una estrategia corporativa que parecía moderna pero que resultó en una experiencia visual inquietante.

La campaña, desarrollada por la agencia TBWANeboko y producida por The Sweetshop para la división holandesa de la cadena de comida rápida, fue concebida como un experimento audaz. El spot de 45 segundos reinterpretaba la Navidad no como la época tradicional de magia y calidez, sino como "la época más terrible del año", reflejando el estrés y el caos que muchos consumidores experimentan durante diciembre. Con un presupuesto y recursos que cualquier marca de envergadura mundial podría justificar, los responsables del proyecto prometían una producción completamente generada por IA que mantuviera el nivel de calidad cinematográfica.​

Read more