Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

¿Las apariencias engañan? Este espejo puede determinar si eres o no una persona confiable

Holding a mirror to artificial intelligence

El amplio uso del Face ID del iPhone X parece confirmar que a una gran cantidad de personas no les molesta la idea de que una máquina pueda identificarlas, en función de sus características faciales. Pero, ¿te molestaría si una computadora utiliza tus rasgos faciales para alimentar un sistema de inteligencia artificial (I.A.) que pueda emitir juicios sobre tu edad, tu género o tu raza? ¿O más aún, determinar si eres o no introvertido, agresivo, amable, responsable, o incluso si se puede confiar en ti?

Lo más probable es que algo así, sí sea motivo de preocupación, especialmente si la I.A. en cuestión utiliza esta información de una manera que pueda controlar las oportunidades u opciones que están disponibles para ti.

Recommended Videos

Imagina, por ejemplo, que la I.A. determine que eres una persona irresponsable, basándose en tu imagen o expresiones, y envíe esos datos a un potencial empleador. Preocupante, ¿no te parece?  Por eso, un nuevo proyecto de investigación de la Universidad de Melbourne en Australia tiene como objetivo explorar este lado complicado -y algo inquietante- de la inteligencia artificial.

Tomando la forma de un espejo biométrico inteligente, el dispositivo creado por el equipo de investigadores australianos utiliza tecnología de reconocimiento facial para analizar las caras de los usuarios, y luego presenta una evaluación en forma de 14 características diferentes que ha «descubierto», basándose en lo que pudo ver.

«Inicialmente, el sistema es bastante secreto en cuanto a qué pueden esperar las personas», dijo a Digital Trends el Dr. Niels Wouters, uno de los investigadores que trabajó en el proyecto. «Nada más decimos, ‘oye, ¿quieres ver lo que las computadoras saben de ti?’, y esto es lo que atrae a las personas. Pero al dar su consentimiento para proceder y tomar su foto, gradualmente se muestra cuán personal puede ser la respuesta».

Wouters nos explicó que algunos elementos problemáticos están presentes desde el principio, aunque no todos los usuarios pueden darse cuenta inmediatamente. Por ejemplo, el sistema solo permite géneros binarios (masculino o femenino), y puede reconocer sólo cinco grupos étnicos genéricos, lo que significa que, según el científico, alguien de la India podría ser confundido con un indígena de algún país centro o sudamericano, o un aborigen australiano como alguien de la raza negra. Luego llega la evaluación posterior, como el nivel de responsabilidad o la estabilidad emocional de una persona, que probablemente provocará una reacción por parte de todos los que usan el dispositivo.

La idea es mostrar los peligros de los conjuntos de datos pre-establecidos con los que se engloba a determinada cantidad de personas sin tomar en cuenta su individualidad, además de mostrar la forma en que el comportamiento problemático o discriminatorio puede codificarse en los sistemas de aprendizaje automático. Esto es algo sobre lo que la Dra. Safiya Umoja Noble hizo un gran trabajo de discusión en su reciente libro Algorithms of Oppression.

«En la actualidad, la discusión en torno a este tipo de cuestiones de la inteligencia artificial está dirigida principalmente por expertos en ética, académicos y tecnólogos», continuó Wouters. «Pero con un número creciente de despliegues de I.A. en la sociedad, las personas deben estar más conscientes de lo que es, qué puede hacer, cómo puede salir mal, y si incluso debería ser el siguiente paso lógico en la evolución que queremos adoptar».

Con la inteligencia artificial cada vez más utilizada para emitir juicios sobre una gran variedad de temas, tanto superficiales como importantes, desde saber si algún tipo de ropa nos queda bien, hasta los usos de reconocimiento de imágenes utilizados por las autoridades, proyectos para determinar su eficacia, confiabilidad y ecuanimidad, como el realizado con este espejo biométrico, serán cada vez más relevantes.

Milenka Peña
Former Digital Trends Contributor
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Una mujer hospitalizada por un anuncio de Pluribus en su refrigerador
Indoors, Elevator

En un incidente que expone los riesgos no anticipados de la publicidad personalizada en dispositivos inteligentes del hogar, una mujer en el Reino Unido fue internada en un departamento de accidentes y emergencias después de malinterpretar un anuncio promocional en su refrigerador Samsung. El mensaje "We're sorry we upset you, Carol" ("Lo sentimos, te molestamos, Carol"), que forma parte de una campaña de Apple TV+ para promocionar la serie "Pluribus", fue interpretado por la paciente como un mensaje dirigido directamente a ella.

La mujer sufre esquizofrenia y experimentaba episodios psicóticos aproximadamente una vez cada dos años. Al ver el anuncio en la pantalla LED del electrodoméstico, creyó que alguien intentaba comunicarse con ella y solicitó inmediatamente un taxi a la sala de emergencias. Permaneció bajo observación médica durante dos días mientras su medicación era reajustada, antes de que su hermano identificara la fuente del mensaje en publicaciones compartidas en Facebook.

Read more
Pornhub resumen 2025: las búsquedas más secretas y prohibidas de internet
Text, Number, Symbol

El informe anual "Year in Review" de Pornhub, plataforma de entretenimiento adulto más grande del mundo, reveló un panorama fascinante de las tendencias de búsqueda y consumo de contenido en 2025, año marcado por cambios políticos significativos a nivel mundial que impactaron tanto las preferencias de usuarios como la disponibilidad de la plataforma en ciertos mercados. Los datos, compilados a partir de miles de millones de búsquedas, ofrecen una ventana sin filtros a los intereses y fantasías del público global, documentando no solo cambios en gustos sino también transformaciones culturales más amplias.

Hentai se consolida como reinante indiscutible durante cinco años consecutivos

Read more
Bullying a McDonald’s tras usar IA en una publicidad que tuvo que bajar
Machine, Wheel, Adult

El mundo publicitario ha comenzado a cuestionarse seriamente si la apuesta por la inteligencia artificial generativa es realmente la solución milagrosa que prometía ser. Ese debate se intensificó esta semana cuando McDonald's retiró su anuncio navideño creado íntegramente con IA tras una avalancha de críticas en redes sociales, exponiendo las grietas en una estrategia corporativa que parecía moderna pero que resultó en una experiencia visual inquietante.

La campaña, desarrollada por la agencia TBWANeboko y producida por The Sweetshop para la división holandesa de la cadena de comida rápida, fue concebida como un experimento audaz. El spot de 45 segundos reinterpretaba la Navidad no como la época tradicional de magia y calidez, sino como "la época más terrible del año", reflejando el estrés y el caos que muchos consumidores experimentan durante diciembre. Con un presupuesto y recursos que cualquier marca de envergadura mundial podría justificar, los responsables del proyecto prometían una producción completamente generada por IA que mantuviera el nivel de calidad cinematográfica.​

Read more