Elon Musk no es infalible: así engañaron al Autopilot de Tesla

Investigadores de seguridad informática israelíes demostraron cómo es posible engañar a Autopilot, el sistema de asistencia al conductor de los vehículos Tesla.

Los informáticos de la Universidad Ben-Gurion del Negev lograron que los automóviles redujeran su velocidad, se desviaran o se detuvieran abruptamente, con solo proyectar señales de tráfico falsas u objetos virtuales frente a ellos.

Las intervenciones de los expertos funcionaron tanto en un Tesla equipado con HW3, la última versión del sistema de Autopilot, así como con la generación anterior HW2.5.

Según Newsweek, uno de los hallazgos más preocupante es que solo es necesario mostrar una señal de tráfico falsa menos de medio segundo para generar una respuesta del sistema de Tesla.

Los hallazgos “reflejan un defecto fundamental de los modelos que detectan objetos (pero) no fueron entrenados para distinguir entre objetos reales y falsos”, afirmaron  los investigadores.

El Autopilot de Tesla ya había sido mal evaluado por el Programa Europeo de Evaluación de Automóviles Nuevos (EuroNCAP), obteniendo el sexto lugar entre los 10 sistemas de asistencia al conductor analizados.

Comida  rápida y proyecciones virtuales

Sistema Autopilot de Tesla
Una de las pruebas con la que los hackers lograron engañar al sistema de la compañía de Elon Musk fue una señal de Alto/Pare oculta en un aviso de comida rápida.

Según los investigadores, el aviso de tránsito hizo que un Tesla que funcionaba en modo de piloto automático se detuviera, a pesar de que solo apareció durante una fracción de segundo.

Los investigadores también afirmaron que el sistema reconoció como objetos reales lo que en realidad eran proyecciones virtuales de personas y otros automóviles, ocasiones en las que redujo la velocidad del Tesla para evitar impactarlos.

Además, Autopilot también fue engañado por un dron que proyectaba una señal de velocidad falsa en una pared.

Recomendaciones del editor