Skip to main content

¿Las apariencias engañan? Este espejo puede determinar si eres o no una persona confiable

Holding a mirror to artificial intelligence

El amplio uso del Face ID del iPhone X parece confirmar que a una gran cantidad de personas no les molesta la idea de que una máquina pueda identificarlas, en función de sus características faciales. Pero, ¿te molestaría si una computadora utiliza tus rasgos faciales para alimentar un sistema de inteligencia artificial (I.A.) que pueda emitir juicios sobre tu edad, tu género o tu raza? ¿O más aún, determinar si eres o no introvertido, agresivo, amable, responsable, o incluso si se puede confiar en ti?

Lo más probable es que algo así, sí sea motivo de preocupación, especialmente si la I.A. en cuestión utiliza esta información de una manera que pueda controlar las oportunidades u opciones que están disponibles para ti.

Recommended Videos

Imagina, por ejemplo, que la I.A. determine que eres una persona irresponsable, basándose en tu imagen o expresiones, y envíe esos datos a un potencial empleador. Preocupante, ¿no te parece?  Por eso, un nuevo proyecto de investigación de la Universidad de Melbourne en Australia tiene como objetivo explorar este lado complicado -y algo inquietante- de la inteligencia artificial.

Tomando la forma de un espejo biométrico inteligente, el dispositivo creado por el equipo de investigadores australianos utiliza tecnología de reconocimiento facial para analizar las caras de los usuarios, y luego presenta una evaluación en forma de 14 características diferentes que ha «descubierto», basándose en lo que pudo ver.

«Inicialmente, el sistema es bastante secreto en cuanto a qué pueden esperar las personas», dijo a Digital Trends el Dr. Niels Wouters, uno de los investigadores que trabajó en el proyecto. «Nada más decimos, ‘oye, ¿quieres ver lo que las computadoras saben de ti?’, y esto es lo que atrae a las personas. Pero al dar su consentimiento para proceder y tomar su foto, gradualmente se muestra cuán personal puede ser la respuesta».

Wouters nos explicó que algunos elementos problemáticos están presentes desde el principio, aunque no todos los usuarios pueden darse cuenta inmediatamente. Por ejemplo, el sistema solo permite géneros binarios (masculino o femenino), y puede reconocer sólo cinco grupos étnicos genéricos, lo que significa que, según el científico, alguien de la India podría ser confundido con un indígena de algún país centro o sudamericano, o un aborigen australiano como alguien de la raza negra. Luego llega la evaluación posterior, como el nivel de responsabilidad o la estabilidad emocional de una persona, que probablemente provocará una reacción por parte de todos los que usan el dispositivo.

La idea es mostrar los peligros de los conjuntos de datos pre-establecidos con los que se engloba a determinada cantidad de personas sin tomar en cuenta su individualidad, además de mostrar la forma en que el comportamiento problemático o discriminatorio puede codificarse en los sistemas de aprendizaje automático. Esto es algo sobre lo que la Dra. Safiya Umoja Noble hizo un gran trabajo de discusión en su reciente libro Algorithms of Oppression.

«En la actualidad, la discusión en torno a este tipo de cuestiones de la inteligencia artificial está dirigida principalmente por expertos en ética, académicos y tecnólogos», continuó Wouters. «Pero con un número creciente de despliegues de I.A. en la sociedad, las personas deben estar más conscientes de lo que es, qué puede hacer, cómo puede salir mal, y si incluso debería ser el siguiente paso lógico en la evolución que queremos adoptar».

Con la inteligencia artificial cada vez más utilizada para emitir juicios sobre una gran variedad de temas, tanto superficiales como importantes, desde saber si algún tipo de ropa nos queda bien, hasta los usos de reconocimiento de imágenes utilizados por las autoridades, proyectos para determinar su eficacia, confiabilidad y ecuanimidad, como el realizado con este espejo biométrico, serán cada vez más relevantes.

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Todo lo que debes saber de la guerra de OpenAI contra los filtradores de Sora
Sora AI

Una situación controvertida y extremadamente delicada está viviendo OpenAI con un grupo "voluntario" de probadores de su herramienta de IA generativa de video, Sora. Todo, luego de que tras meses en esta dinámica de ensayo, el colectivo que se hace llamar PR Puppets, afirmó que se les pidió trabajar como probadores de errores y investigación y desarrollo no remunerados mientras participaban en el "lavado de arte" de herramientas de inteligencia artificial.

Pero OpenAI dice que la participación en la prueba alfa temprana es voluntaria y no tiene requisitos para que los evaluadores proporcionen comentarios.

Leer más
Ellos quieren derrotar a NotebookLM en creación de podcasts con IA
Los mejores podcasts en español que puedes escuchar ahora mismo

Una de las principales novedades y que causó mucha sorpresa entre los usuarios, fue la aparición de NotebookLM, una herramienta de Google que además de hacer resúmenes de largos textos con IA, podía transformar texto o enlaces en podcasts hablados entre dos personas con extraordinaria fluidez.

Ahora, la compañía ElevenLabs está subiendo la apuesta, ya que con su función GenFM quiere hacer eso y más, ya que tiene soporte para 32 idiomas: incluidos inglés, hindi, portugués, chino, español, francés, alemán, japonés y otros.
Para usar GenFM, primero debes subir un video, texto o documento de YouTube. Luego, la aplicación selecciona dos voces automáticamente para crear un podcast. Hay más de una docena de voces disponibles, señala la compañía.
Una de las pantallas interesantes que puedes ver cuando la aplicación prepara un podcast generado por IA es "Rociar algunos umms" y "Agregar algunas pausas reflexivas", para sacar todos los errores.
"Debatimos sobre cuánto introducir 'ums', 'ahs', 'mhmms' / risa / respiración de rellenos o superposiciones de diálogos humanos similares: nuestro objetivo es lograr el equilibrio adecuado entre la conversación natural y humana y proporcionar utilidad al contenido", le dijo Jack McDermott, quien se encarga del crecimiento móvil en ElevenLabs, a TechCrunch.

Leer más
¿De qué hablaron Mark Zuckerberg con Donald Trump?
El CEO de Facebook junto al presidente Donald Trump

Una cena de camaradería, o de lobby realmente, es la que sostuvieron este miércoles 27 de noviembre, el recién electo presidente de Estados Unidos, Donald Trump, con el CEO de Meta, Mark Zuckerberg.

Cabe recordar que el fundador de Facebook no hizo ningún apoyo abierto al republicano, pero sí se mostró muy sorprendido por el ataque e intento de asesinato que sufrió y la calificó "como una de las cosas más rudas que he visto en mi vida".
"Es un momento importante para el futuro de la innovación estadounidense", dijo el portavoz de Meta, Andy Stone, en un comunicado compartido con el sitio The Verge. "Mark estaba agradecido por la invitación a unirse al presidente Trump para cenar y la oportunidad de reunirse con miembros de su equipo sobre la administración entrante".
Si bien no está claro qué discutieron los dos hombres, la reunión sugiere que Trump podría estar suavizando su opinión sobre Zuckerberg. Ha dicho que el multimillonario de la tecnología debería ser encarcelado por el papel de Facebook en la carrera presidencial de 2020 y sus donaciones personales a iniciativas de ballet por correo.
En 2020 además,  Mark Zuckerberg, fue criticado por permitir que el presidente Trump publicara declaraciones incendiarias en Facebook.

Leer más