Skip to main content

Estas pequeñas etiquetas rojas lograron engañar al software Autopilot de Tesla

Imagen utilizada con permiso del titular de los derechos de autor

La promesa de la tecnología de conducción autónoma incluye la idea de que los automóviles con pilotos robóticos al timón podrán mantenernos más seguros. La esencia del concepto es que, mientras más vehículos autónomos rueden por las carreteras, menor será la posibilidad de que se presenten errores humanos. Sin embargo, si esos sistemas autónomos sufren sus propios problemas, entonces solo nos ponen en riesgo de otras maneras.

Un equipo de investigadores del laboratorio de seguridad Tencent Keen publicó recientemente un documento detallado que muestra algunas de las fallas en la tecnología de autoconducción, específicamente relacionadas al software utilizado en el sistema del piloto automático Tesla Autopilot.

La falla más problemática resaltada en el documento fue una de las más simples de ejecutar. Según se explica, los investigadores pudieron engañar a la funcionalidad del piloto automático de Tesla para cambiar de carril y perder su posición en la carretera, simplemente al agregar distracciones a las marcas de los carriles.

En este caso, se colocaron pequeñas etiquetas rojas en el suelo, para hacer creer al vehículo que necesitaba cambiar de carril, y la artimaña funcionó perfectamente, forzando al vehículo a entrar en el tráfico. Esta prueba funcionó a plena luz del día y no requirió ningún tipo de interferencia, como nieve o lluvia, que pudiera dificultar las cosas para que el sistema de piloto automático procesara las señales de la carretera.

Algunos de los otros trucos para engañar a las máquinas descubiertos por los expertos en seguridad, suenan como algo que se parece más al guión de alguna película de espionaje y acción. En un ejemplo, después de pasar por alto varias capas de protección diseñadas para mantener alejados a los hackers, los investigadores pudieron escribir una aplicación que les permitió secuestrar la funcionalidad de dirección de Tesla. Con esa aplicación, un atacante podría usar algo tan común como un control de videojuegos o un teléfono inteligente para conducir un vehículo. Los comandos anularían los sistemas de piloto automático de Tesla, así como la funcionalidad del propio volante. En otras palabras, alguien más que no sea el conductor podría apoderarse completamente del control de un automóvil, y manejarlo a larga distancia.

«Este tipo de ataque es fácil de implementar y los materiales son fáciles de obtener», escribieron los investigadores. “Nuestros experimentos demostraron que esta arquitectura tiene riesgos de seguridad, y el reconocimiento de carril inverso es una de las funciones necesarias para la conducción autónoma en carreteras no cerradas. En la escena que construimos, si el vehículo sabe que el carril falso está apuntando hacia el carril de reversa, debería ignorar este carril falso y luego podría evitar un accidente de tráfico, pero ese no fue el caso».

Los investigadores de seguridad de Tencent Keen Security Lab dijeron que informaron a Tesla sobre los problemas. Por su parte, la compañía dio a conocer que esas vulnerabilidades se han solucionado, y se han enviado parches de seguridad recientes. De todas formas, con noticias como ésta, parece que manejar “a la antigua” y tener el control total de un vehículo nunca pasará de moda.

Recomendaciones del editor

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Trabajador de Tesla dio positivo al COVID-19 en fábrica reabierta
Trabajador de Tesla dio positivo al COVID-19 en New York

Un empleado de Tesla Motors en la sucursal de la fábrica ubicada en Buffalo, Nueva York, dio positivo al COVID-19 tras reabrir la compañía, luego de semanas de controversia por la reanudación del trabajo como había pedido Elon Musk.

Desde principios de mayo este edificio donde se fabrican paneles solares, permanecía cerrado por las cuarentenas preventivas tomadas en la zona.

Leer más
El sistema Autopilot de Tesla ahora para con la luz roja
tesla falla pantalla carga 800

Se suponía que a finales de 2019, Elon Musk y Tesla presentarían la versión completa de conducción autónoma para sus modelos. Sin embargo, una serie de pruebas retrasó esta entrega que ayudará a los pilotos a soltar amarras y dejar que el auto haga de las suyas en la ciudad, siguiendo todas las reglas que esto significa.

Y las señales del tránsito, que muchas veces ni los humanos respetamos, son el desafío para el sistema de asistencia a la conducción Autopilot de la firma estadounidense.

Leer más
Así engañaron a un Tesla con un trozo de cinta adhesiva
Tesla Model 3 vs. Model S

Una vez más, investigadores han logrado engañar a un Tesla con algo de ingenio y un poco de cinta adhesiva. Luego de que se dieran a conocer los resultados de los experimentos de un equipo de la Universidad Ben-Gurión del Néguev que hizo que un Model X frenara y esquivara obstáculos inexistentes, dos investigadores de McAfee lograron que un Model X y un Model S de 2016 aceleraran a más del doble de la velocidad permitida por un letrero de 35 millas por hora, simplemente adhiriendo un trozo de cinta negra sobre parte del número 3 para que los vehículos interpretaran el límite como 85 millas por hora, más de 130 kilómetros por hora.

McAfee Demonstrates Model Hacking in the Real World

Leer más