Skip to main content

Estudio del MIT resalta importancia de entender bien la IA

¿Quién es el autor de una obra creada con inteligencia artificial? Esta pregunta ha servido como base para investigar cómo las personas perciben la inteligencia artificial, si como un agente creador de arte o una herramienta de software, y cómo el lenguaje utilizado para hablar sobre la inteligencia artificial puede hacer cambiar esa percepción.

La investigación, elaborada por el investigador del MIT Ziv Epstein, no trata de responder a la cuestión que da título al estudio relacionada con la creación de arte, sino que ha valido para comprobar las consecuencias de tener un entendimiento erróneo de esta tecnología. Y pone como ejemplo la subasta de arte de Christie’s en la que se vendió un retrato generado por un algoritmo de aprendizaje automático (ML) por $432,500 dólares. ¿Por qué el precio de salida del cuadro, llamado Edmond De Belamy, de $10,000 dólares, se multiplicó por 40? El uso de un lenguaje antropomórfico que calificaba de autónoma y creadora a la IA, exponen los investigadores.

Recommended Videos

Christie’s lo vendió a los medios de comunicación como “el primer retrato generado por un algoritmo que se subastó». Sin embargo, aunque “la IA desempeñó su papel para generar la obra de arte, Edmond de Belamy nunca se habría producido sin la ayuda de los humanos. Fue el colectivo de arte parisino Obvious quien seleccionó, imprimió, comercializó y vendió la imagen; pero la participación humana no se detuvo ahí”, explica el estudio.

ro bot Pepper
Alex Knight / Pexels

El estudio plantea que un lenguaje antropomórfico de la IA puede afectar a la confianza y a las atribuciones de responsabilidad. Por ejemplo, en un accidente de un auto convencional y uno autónomo “antropomorfizado con voz y nombre humanos”. Esta atribución de características humanas aumentó la confianza en ese coche. O “cuando el sistema de IA causa una transgresión moral, puede ser que el programador o el arquitecto de sistemas pueda evitar la responsabilidad personal culpando al comportamiento inesperado del sistema, minimizando su propia implicación”.

Debemos ser cuidadosos cuando hablamos de la IA

A través de una versión ficticia de la subasta de Edmond De Belamy, Epstein y su equipo realizaron pruebas con cientos de personas para comprobar lo importante que son las palabras para influir en la visión más o menos antropomórfica de la IA. «Los participantes que antropomorfizaron la IA asignaron menos autoría al artista», precisan los científicos, quienes concluyen que «la forma en que hablamos de las cosas tiene consecuencias tanto materiales como morales».

Para Epstein esto es un problema tanto de complejidad como de analfabestismo, según comentó a ZDNet. “Mucha gente no entiende qué son estas tecnologías porque no han sido capacitadas en ellas. La alfabetización mediática y la tecnológica juegan un papel increíblemente poderoso en la educación del público sobre qué son exactamente estas tecnologías y cómo funcionan». Es más, él mismo reconoce que estudia la IA y “siento que ni siquiera sé qué es la inteligencia artificial”.

La solución para ello, en palabras de Epstein, pasa por “permitir que todos trabajen con programas de inteligencia artificial, para tener una idea de lo que son”.

Topics
Marta Villalba
Marta Villalba, periodista madrileña, se inició en el periodismo tecnológico cuando todavía no existía Google y los…
Cómo es la base de datos de riesgos de IA creada por el MIT
Robot IA maligno encerrado en jaula

El MIT acaba de estrenar un documento esencial para instituciones laborales, gubernamentales, públicas y estudiantiles sobre los riesgos que conlleva el uso de IA y una categorización de potenciales peligros.

El Repositorio de Riesgos de IA, es una base de datos completa de cientos de riesgos documentados que plantean los sistemas de IA. El repositorio tiene como objetivo ayudar a los responsables de la toma de decisiones en el gobierno, la investigación y la industria a evaluar los riesgos cambiantes de la IA.

Leer más
¿Cuál debería ser el icono para la IA?
Imagen generada por IA que incluye un computador y un androide.

La inteligencia artificial (IA) está cambiando nuestras vidas de formas que hace unos años parecían de ciencia ficción. Desde asistentes virtuales que nos ayudan con las tareas diarias hasta algoritmos que mejoran la atención médica, la IA está en todas partes. Pero, ¿alguna vez te has preguntado cómo podríamos representar visualmente esta tecnología tan compleja? ¿Qué icono podría capturar su esencia? En este artículo, exploramos las diferentes ideas y propuestas para encontrar el símbolo perfecto que represente a la inteligencia artificial.

Recientemente, la comunidad de IA se ha visto inmersa en una interesante competencia para determinar el mejor icono que represente a esta tecnología. Empresas como Apple, Google, OpenAI, Anthropic y Meta están en una carrera por encontrar un símbolo que sugiera la IA a los usuarios. Apple, por ejemplo, ha optado por un diseño circular compuesto por siete bucles para representar su tecnología de inteligencia artificial. Este nuevo icono de Siri, potenciado por Apple Intelligence, ha generado debate sobre cómo debería visualizarse la IA.

Leer más
4 predicciones apocalípticas sobre la IA que están ocurriendo ahora mismo
cuatro predicciones apocalipticas ia que estan ocurriendo 0e2bb377 4ee7 4cff b9a4 2e2861edd5db

Como si la amenaza climática, la creciente desigualdad o los conflictos armados de gran escala y la eterna amenaza de las armas nucleares no fuera suficiente para sentirse ansioso, el 30 de mayo de 2023 un grupo de investigadores y ejecutivos de alto nivel alertaron que la inteligencia artificial se está convirtiendo en una amenaza con la capacidad de extinguirnos.

“Mitigar los riesgos de la extinción por la inteligencia artificial debería ser una prioridad global junto a otros riesgos de nivel socioglobal, como las pandemias o la guerra nuclear”, señaló el Centro para la Seguridad en Inteligencia Artificial y más de 350 abajofirmantes, entre los que destaca Sam Altman, el CEO de OpenAI —la empresa detrás de ChatGPT—, y Demis Hassabis, jefe de Google DeepMind.

Leer más