Skip to main content

Estudio del MIT resalta importancia de entender bien la IA

¿Quién es el autor de una obra creada con inteligencia artificial? Esta pregunta ha servido como base para investigar cómo las personas perciben la inteligencia artificial, si como un agente creador de arte o una herramienta de software, y cómo el lenguaje utilizado para hablar sobre la inteligencia artificial puede hacer cambiar esa percepción.

La investigación, elaborada por el investigador del MIT Ziv Epstein, no trata de responder a la cuestión que da título al estudio relacionada con la creación de arte, sino que ha valido para comprobar las consecuencias de tener un entendimiento erróneo de esta tecnología. Y pone como ejemplo la subasta de arte de Christie’s en la que se vendió un retrato generado por un algoritmo de aprendizaje automático (ML) por $432,500 dólares. ¿Por qué el precio de salida del cuadro, llamado Edmond De Belamy, de $10,000 dólares, se multiplicó por 40? El uso de un lenguaje antropomórfico que calificaba de autónoma y creadora a la IA, exponen los investigadores.

Christie’s lo vendió a los medios de comunicación como “el primer retrato generado por un algoritmo que se subastó». Sin embargo, aunque “la IA desempeñó su papel para generar la obra de arte, Edmond de Belamy nunca se habría producido sin la ayuda de los humanos. Fue el colectivo de arte parisino Obvious quien seleccionó, imprimió, comercializó y vendió la imagen; pero la participación humana no se detuvo ahí”, explica el estudio.

ro bot Pepper
Alex Knight / Pexels

El estudio plantea que un lenguaje antropomórfico de la IA puede afectar a la confianza y a las atribuciones de responsabilidad. Por ejemplo, en un accidente de un auto convencional y uno autónomo “antropomorfizado con voz y nombre humanos”. Esta atribución de características humanas aumentó la confianza en ese coche. O “cuando el sistema de IA causa una transgresión moral, puede ser que el programador o el arquitecto de sistemas pueda evitar la responsabilidad personal culpando al comportamiento inesperado del sistema, minimizando su propia implicación”.

Debemos ser cuidadosos cuando hablamos de la IA

A través de una versión ficticia de la subasta de Edmond De Belamy, Epstein y su equipo realizaron pruebas con cientos de personas para comprobar lo importante que son las palabras para influir en la visión más o menos antropomórfica de la IA. «Los participantes que antropomorfizaron la IA asignaron menos autoría al artista», precisan los científicos, quienes concluyen que «la forma en que hablamos de las cosas tiene consecuencias tanto materiales como morales».

Para Epstein esto es un problema tanto de complejidad como de analfabestismo, según comentó a ZDNet. “Mucha gente no entiende qué son estas tecnologías porque no han sido capacitadas en ellas. La alfabetización mediática y la tecnológica juegan un papel increíblemente poderoso en la educación del público sobre qué son exactamente estas tecnologías y cómo funcionan». Es más, él mismo reconoce que estudia la IA y “siento que ni siquiera sé qué es la inteligencia artificial”.

La solución para ello, en palabras de Epstein, pasa por “permitir que todos trabajen con programas de inteligencia artificial, para tener una idea de lo que son”.

Recomendaciones del editor

Topics
Marta Villalba
Marta Villalba, periodista madrileña, se inició en el periodismo tecnológico cuando todavía no existía Google y los…
Restauran a color y con IA video del desastre del Hindenburg
restauran color ia tragedia hindenburg accidente a

El accidente del Hindenburg es considerado uno de los mayores desastres de la aviación mundial. Si bien no es el que registra más víctimas fatales, su caída sobre Nueva Jersey causó impacto por la crudeza de sus imágenes.

Este accidente ocurrió el 6 de mayo de 1937 cuando el dirigible alemán LZ 129 Hindenburg intentaba aterrizar en el aeródromo de Lakehurst. Sin embargo, cuando este procedimiento se llevaba a cabo, algo salió mal y la aeronave terminó incendiada por completo.

Leer más
Future Wake: la IA que predice a quién asesinará la policía en el futuro
IA Future Wake

El concepto de policía predictiva hace referencia a una técnica que utilizan las fuerzas del orden en países como Estados Unidos, Alemania y Reino Unido para predecir dónde y cuándo ocurrirá una actividad criminal. De esta manera, supuestamente pueden distribuir sus patrullas de forma más eficiente.

Sin embargo, los sistemas predictivos funcionan con inteligencia artificial (IA) y análisis de datos sobre arrestos pasados, y solo tienen en cuenta los delitos que se denuncian.

Leer más
Europa quiere prohibir que la policía use IA para vigilancia masiva
Policía reconocimiento facial

Miembros del Parlamento Europeo (PE) han advertido sobre los sesgos en los que incurren los algoritmos de inteligencia artificial (IA), en especial cuando son utilizados por los cuerpos de policía para la vigilancia masiva.

Los eurodiputados indican que las decisiones finales siempre deben ser tomadas por personas y recalcan que los afectados necesitan tener la posibilidad de apelar a este tipo de sentencias.

Leer más