Skip to main content

¿Las apariencias engañan? Este espejo puede determinar si eres o no una persona confiable

Holding a mirror to artificial intelligence

El amplio uso del Face ID del iPhone X parece confirmar que a una gran cantidad de personas no les molesta la idea de que una máquina pueda identificarlas, en función de sus características faciales. Pero, ¿te molestaría si una computadora utiliza tus rasgos faciales para alimentar un sistema de inteligencia artificial (I.A.) que pueda emitir juicios sobre tu edad, tu género o tu raza? ¿O más aún, determinar si eres o no introvertido, agresivo, amable, responsable, o incluso si se puede confiar en ti?

Lo más probable es que algo así, sí sea motivo de preocupación, especialmente si la I.A. en cuestión utiliza esta información de una manera que pueda controlar las oportunidades u opciones que están disponibles para ti.

Imagina, por ejemplo, que la I.A. determine que eres una persona irresponsable, basándose en tu imagen o expresiones, y envíe esos datos a un potencial empleador. Preocupante, ¿no te parece?  Por eso, un nuevo proyecto de investigación de la Universidad de Melbourne en Australia tiene como objetivo explorar este lado complicado -y algo inquietante- de la inteligencia artificial.

Tomando la forma de un espejo biométrico inteligente, el dispositivo creado por el equipo de investigadores australianos utiliza tecnología de reconocimiento facial para analizar las caras de los usuarios, y luego presenta una evaluación en forma de 14 características diferentes que ha «descubierto», basándose en lo que pudo ver.

«Inicialmente, el sistema es bastante secreto en cuanto a qué pueden esperar las personas», dijo a Digital Trends el Dr. Niels Wouters, uno de los investigadores que trabajó en el proyecto. «Nada más decimos, ‘oye, ¿quieres ver lo que las computadoras saben de ti?’, y esto es lo que atrae a las personas. Pero al dar su consentimiento para proceder y tomar su foto, gradualmente se muestra cuán personal puede ser la respuesta».

Wouters nos explicó que algunos elementos problemáticos están presentes desde el principio, aunque no todos los usuarios pueden darse cuenta inmediatamente. Por ejemplo, el sistema solo permite géneros binarios (masculino o femenino), y puede reconocer sólo cinco grupos étnicos genéricos, lo que significa que, según el científico, alguien de la India podría ser confundido con un indígena de algún país centro o sudamericano, o un aborigen australiano como alguien de la raza negra. Luego llega la evaluación posterior, como el nivel de responsabilidad o la estabilidad emocional de una persona, que probablemente provocará una reacción por parte de todos los que usan el dispositivo.

La idea es mostrar los peligros de los conjuntos de datos pre-establecidos con los que se engloba a determinada cantidad de personas sin tomar en cuenta su individualidad, además de mostrar la forma en que el comportamiento problemático o discriminatorio puede codificarse en los sistemas de aprendizaje automático. Esto es algo sobre lo que la Dra. Safiya Umoja Noble hizo un gran trabajo de discusión en su reciente libro Algorithms of Oppression.

«En la actualidad, la discusión en torno a este tipo de cuestiones de la inteligencia artificial está dirigida principalmente por expertos en ética, académicos y tecnólogos», continuó Wouters. «Pero con un número creciente de despliegues de I.A. en la sociedad, las personas deben estar más conscientes de lo que es, qué puede hacer, cómo puede salir mal, y si incluso debería ser el siguiente paso lógico en la evolución que queremos adoptar».

Con la inteligencia artificial cada vez más utilizada para emitir juicios sobre una gran variedad de temas, tanto superficiales como importantes, desde saber si algún tipo de ropa nos queda bien, hasta los usos de reconocimiento de imágenes utilizados por las autoridades, proyectos para determinar su eficacia, confiabilidad y ecuanimidad, como el realizado con este espejo biométrico, serán cada vez más relevantes.

Recomendaciones del editor

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Mercedes probará robots humanoides para trabajos «poco cualificados»
mercedes probara robots humanoides robot

Apptronik
Los robots humanoides han avanzado a pasos agigantados en los últimos años, y algunas grandes empresas están empezando a tomar nota.

Mercedes-Benz, por ejemplo, acaba de firmar un acuerdo con Apptronik, especialista en robótica con sede en Texas, para colaborar en la identificación de aplicaciones para robots altamente avanzados que el gigante automotriz podría implementar. El acuerdo implicará una prueba en la que el robot humanoide Apollo de Apptronik trabajará junto a los trabajadores humanos de Mercedes en la fábrica.

Leer más
Lo que no te dicen sobre llevar una cámara en la cara
lo que no te dicen de llevar una camara en la cara ray ban lentes

El periodista de DT en inglés, Andy Boxall, probó los Ray-Ban Meta y no tiene mucha claridad sobre si sacar fotos con tus ojos y cara es la mejor solución. Acá sus conclusiones.
Andy Boxall /DT
Llevo unas semanas usando las gafas inteligentes Ray-Ban Meta y, por lo tanto, he vivido la vida con una cámara en la cara durante ese tiempo. Ser capaz de capturar ese genial punto de vista en primera persona con la cámara fue una de las cosas que me atrajo de estas gafas, y hasta ahora me he divertido con ellas. Pero hay mucho más en lo que simplemente no había pensado antes de tomar fotos.

Resulta que tomar fotos con la cámara de Ray-Ban Meta es dramáticamente diferente a tomar fotos con tu teléfono de una manera que simplemente no esperaba. Esto me ha obligado inesperadamente a replantearme cómo hago las fotos.
Tus ojos no son el visor
Andy Boxall / DT
Todo lo que se necesita para capturar una foto o un video con el Ray-Ban Meta es presionar el botón en uno de los brazos. Es muy fácil y mucho más rápido que sacar el teléfono. Sin embargo, resulta que hay una gran diferencia entre la foto que creo que estoy tomando con mis gafas inteligentes y la foto que realmente tomo.

Leer más
El último video de Sora de OpenAI muestra un elefante hecho de hojas
video sora openai elefante hojas verde

OpenAI dejó a muchos boquiabiertos el mes pasado cuando compartió las primeras imágenes realizadas por Sora, su generador de texto a video impulsado por IA.

Si bien no fue perfecta, la calidad fue extraordinaria y dejó a muchos preguntándose sobre el tipo de impacto transformador que dicha tecnología tendrá en las industrias creativas, incluido Hollywood.

Leer más