Estudio del MIT resalta importancia de entender bien la IA

¿Quién es el autor de una obra creada con inteligencia artificial? Esta pregunta ha servido como base para investigar cómo las personas perciben la inteligencia artificial, si como un agente creador de arte o una herramienta de software, y cómo el lenguaje utilizado para hablar sobre la inteligencia artificial puede hacer cambiar esa percepción.

La investigación, elaborada por el investigador del MIT Ziv Epstein, no trata de responder a la cuestión que da título al estudio relacionada con la creación de arte, sino que ha valido para comprobar las consecuencias de tener un entendimiento erróneo de esta tecnología. Y pone como ejemplo la subasta de arte de Christie’s en la que se vendió un retrato generado por un algoritmo de aprendizaje automático (ML) por $432,500 dólares. ¿Por qué el precio de salida del cuadro, llamado Edmond De Belamy, de $10,000 dólares, se multiplicó por 40? El uso de un lenguaje antropomórfico que calificaba de autónoma y creadora a la IA, exponen los investigadores.

Christie’s lo vendió a los medios de comunicación como “el primer retrato generado por un algoritmo que se subastó”. Sin embargo, aunque “la IA desempeñó su papel para generar la obra de arte, Edmond de Belamy nunca se habría producido sin la ayuda de los humanos. Fue el colectivo de arte parisino Obvious quien seleccionó, imprimió, comercializó y vendió la imagen; pero la participación humana no se detuvo ahí”, explica el estudio.

ro bot Pepper
Alex Knight / Pexels

El estudio plantea que un lenguaje antropomórfico de la IA puede afectar a la confianza y a las atribuciones de responsabilidad. Por ejemplo, en un accidente de un auto convencional y uno autónomo “antropomorfizado con voz y nombre humanos”. Esta atribución de características humanas aumentó la confianza en ese coche. O “cuando el sistema de IA causa una transgresión moral, puede ser que el programador o el arquitecto de sistemas pueda evitar la responsabilidad personal culpando al comportamiento inesperado del sistema, minimizando su propia implicación”.

Debemos ser cuidadosos cuando hablamos de la IA

A través de una versión ficticia de la subasta de Edmond De Belamy, Epstein y su equipo realizaron pruebas con cientos de personas para comprobar lo importante que son las palabras para influir en la visión más o menos antropomórfica de la IA. “Los participantes que antropomorfizaron la IA asignaron menos autoría al artista”, precisan los científicos, quienes concluyen que “la forma en que hablamos de las cosas tiene consecuencias tanto materiales como morales”.

Para Epstein esto es un problema tanto de complejidad como de analfabestismo, según comentó a ZDNet. “Mucha gente no entiende qué son estas tecnologías porque no han sido capacitadas en ellas. La alfabetización mediática y la tecnológica juegan un papel increíblemente poderoso en la educación del público sobre qué son exactamente estas tecnologías y cómo funcionan”. Es más, él mismo reconoce que estudia la IA y “siento que ni siquiera sé qué es la inteligencia artificial”.

La solución para ello, en palabras de Epstein, pasa por “permitir que todos trabajen con programas de inteligencia artificial, para tener una idea de lo que son”.

Recomendaciones del editor