Estas pequeñas etiquetas rojas lograron engañar al software Autopilot de Tesla

fallas seguridad autopilot tesla 3 720x720

La promesa de la tecnología de conducción autónoma incluye la idea de que los automóviles con pilotos robóticos al timón podrán mantenernos más seguros. La esencia del concepto es que, mientras más vehículos autónomos rueden por las carreteras, menor será la posibilidad de que se presenten errores humanos. Sin embargo, si esos sistemas autónomos sufren sus propios problemas, entonces solo nos ponen en riesgo de otras maneras.

Un equipo de investigadores del laboratorio de seguridad Tencent Keen publicó recientemente un documento detallado que muestra algunas de las fallas en la tecnología de autoconducción, específicamente relacionadas al software utilizado en el sistema del piloto automático Tesla Autopilot.

La falla más problemática resaltada en el documento fue una de las más simples de ejecutar. Según se explica, los investigadores pudieron engañar a la funcionalidad del piloto automático de Tesla para cambiar de carril y perder su posición en la carretera, simplemente al agregar distracciones a las marcas de los carriles.

En este caso, se colocaron pequeñas etiquetas rojas en el suelo, para hacer creer al vehículo que necesitaba cambiar de carril, y la artimaña funcionó perfectamente, forzando al vehículo a entrar en el tráfico. Esta prueba funcionó a plena luz del día y no requirió ningún tipo de interferencia, como nieve o lluvia, que pudiera dificultar las cosas para que el sistema de piloto automático procesara las señales de la carretera.

Algunos de los otros trucos para engañar a las máquinas descubiertos por los expertos en seguridad, suenan como algo que se parece más al guión de alguna película de espionaje y acción. En un ejemplo, después de pasar por alto varias capas de protección diseñadas para mantener alejados a los hackers, los investigadores pudieron escribir una aplicación que les permitió secuestrar la funcionalidad de dirección de Tesla. Con esa aplicación, un atacante podría usar algo tan común como un control de videojuegos o un teléfono inteligente para conducir un vehículo. Los comandos anularían los sistemas de piloto automático de Tesla, así como la funcionalidad del propio volante. En otras palabras, alguien más que no sea el conductor podría apoderarse completamente del control de un automóvil, y manejarlo a larga distancia.

“Este tipo de ataque es fácil de implementar y los materiales son fáciles de obtener”, escribieron los investigadores. “Nuestros experimentos demostraron que esta arquitectura tiene riesgos de seguridad, y el reconocimiento de carril inverso es una de las funciones necesarias para la conducción autónoma en carreteras no cerradas. En la escena que construimos, si el vehículo sabe que el carril falso está apuntando hacia el carril de reversa, debería ignorar este carril falso y luego podría evitar un accidente de tráfico, pero ese no fue el caso”.

Los investigadores de seguridad de Tencent Keen Security Lab dijeron que informaron a Tesla sobre los problemas. Por su parte, la compañía dio a conocer que esas vulnerabilidades se han solucionado, y se han enviado parches de seguridad recientes. De todas formas, con noticias como ésta, parece que manejar “a la antigua” y tener el control total de un vehículo nunca pasará de moda.

Recomendaciones del editor