Skip to main content
  1. Casa
  2. Autos
  3. Noticias
  4. Tendencias
  5. News

Estas pequeñas etiquetas rojas lograron engañar al software Autopilot de Tesla

Imagen utilizada con permiso del titular de los derechos de autor

La promesa de la tecnología de conducción autónoma incluye la idea de que los automóviles con pilotos robóticos al timón podrán mantenernos más seguros. La esencia del concepto es que, mientras más vehículos autónomos rueden por las carreteras, menor será la posibilidad de que se presenten errores humanos. Sin embargo, si esos sistemas autónomos sufren sus propios problemas, entonces solo nos ponen en riesgo de otras maneras.

Un equipo de investigadores del laboratorio de seguridad Tencent Keen publicó recientemente un documento detallado que muestra algunas de las fallas en la tecnología de autoconducción, específicamente relacionadas al software utilizado en el sistema del piloto automático Tesla Autopilot.

La falla más problemática resaltada en el documento fue una de las más simples de ejecutar. Según se explica, los investigadores pudieron engañar a la funcionalidad del piloto automático de Tesla para cambiar de carril y perder su posición en la carretera, simplemente al agregar distracciones a las marcas de los carriles.

En este caso, se colocaron pequeñas etiquetas rojas en el suelo, para hacer creer al vehículo que necesitaba cambiar de carril, y la artimaña funcionó perfectamente, forzando al vehículo a entrar en el tráfico. Esta prueba funcionó a plena luz del día y no requirió ningún tipo de interferencia, como nieve o lluvia, que pudiera dificultar las cosas para que el sistema de piloto automático procesara las señales de la carretera.

Recommended Videos

Algunos de los otros trucos para engañar a las máquinas descubiertos por los expertos en seguridad, suenan como algo que se parece más al guión de alguna película de espionaje y acción. En un ejemplo, después de pasar por alto varias capas de protección diseñadas para mantener alejados a los hackers, los investigadores pudieron escribir una aplicación que les permitió secuestrar la funcionalidad de dirección de Tesla. Con esa aplicación, un atacante podría usar algo tan común como un control de videojuegos o un teléfono inteligente para conducir un vehículo. Los comandos anularían los sistemas de piloto automático de Tesla, así como la funcionalidad del propio volante. En otras palabras, alguien más que no sea el conductor podría apoderarse completamente del control de un automóvil, y manejarlo a larga distancia.

“Este tipo de ataque es fácil de implementar y los materiales son fáciles de obtener”, escribieron los investigadores. “Nuestros experimentos demostraron que esta arquitectura tiene riesgos de seguridad, y el reconocimiento de carril inverso es una de las funciones necesarias para la conducción autónoma en carreteras no cerradas. En la escena que construimos, si el vehículo sabe que el carril falso está apuntando hacia el carril de reversa, debería ignorar este carril falso y luego podría evitar un accidente de tráfico, pero ese no fue el caso”.

Los investigadores de seguridad de Tencent Keen Security Lab dijeron que informaron a Tesla sobre los problemas. Por su parte, la compañía dio a conocer que esas vulnerabilidades se han solucionado, y se han enviado parches de seguridad recientes. De todas formas, con noticias como ésta, parece que manejar “a la antigua” y tener el control total de un vehículo nunca pasará de moda.

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Tesla ha abandonado silenciosamente su Cybertruck más asequible
Cybertruck

El CEO de Tesla, Elon Musk, entregó el primer Cybertruck a bombo y platillo a finales de 2023, pero los dos modelos lanzados en ese momento no incluían la versión Long Range más asequible con un precio de 69.990 dólares.

Tesla finalmente comenzó a ofrecer la primera versión de largo alcance de la extravagante camioneta eléctrica en abril, pero hace solo unos días el fabricante de automóviles eliminó silenciosamente la opción de su sitio web.

Leer más
El consejo tajante de un matemático en TikTok sobre los 140 km/hr en un auto
Auto a toda velocidad

La gente suele pensar que superar la velocidad máxima permitida en carretera, es un riesgo que es conveniente tomar para llegar más rápido a destino, sin embargo, un profesor de matemáticas español, desmintió esto en un video de TikTok.

En España y en muchos países latinoamericanos, 120 Km/hr es la velocidad máxima permitida, y por eso ir a 140 Km/hr no significaría ninguna ventaja comparativa para arriesgarse.

Leer más
La policía quería pasarle una infracción…pero era un robotaxi ¿Qué pasó?
Waymo infracción

¿Qué hacen los policías de tránsito si ven un automóvil haciendo un movimiento ilegal? Bueno, lo detienen y multan al conductor, por supuesto. Pero, ¿Qué pasa si nadie está detrás del volante?

Los policías de California vieron recientemente a un vehículo hacer un giro en U ilegal en un semáforo. Pero cuando detuvieron el auto, notaron que estaba vacío. Investigando más a fondo, pronto se dieron cuenta de que estaban tratando con un automóvil autónomo operado por Waymo.

Leer más