Un grupo de investigadores logra hackear el sistema autopilot de Tesla

Miguel Jorge
11 12 36
Noticias » Tecnología
La muerte el pasado mes de mayo del primer conductor de un Tesla Model S con el sistema de la compañía autopilot activado hizo saltar las alarmas. Por primera vez se veía seriamente atacada por muchos medios y detractores de la tecnología, pero Tesla se defendió explicando que su sistema no es un piloto automático autónomo por el que el conductor deba olvidarse de la conducción. Ahora, un grupo de investigadores ha logrado hackear su conocido sistema.

No es la primera vez. Hace dos años ya hablábamos de cómo un grupo de hackers chinos había conseguido controlar a distancia varias funciones del Tesla Model S. Además, el año pasado ya le tocó el turno al Jeep Cherokee, a través una vulnerabilidad que permitía controlarlo de forma remota.

Lo conseguido ahora por un grupo de investigadores de la Universidad de Carolina del Sur y la Universidad de Zhejiang en China, en colaboración con la empresa de seguridad china Qihoo 360, es engañar o confundir de manera intencional los sensores del piloto semiautomático de la compañía para hacerle creer que no hay nada a su alrededor cuando no es así, o viceversa, haciéndole creer que hay objetos cuando no los hay.

Según ha explicado este grupo, conforme nos acerquemos al final de la conferencia de hackers Defcon que se está celebrando desvelarán y detallarán la manera en la que lo han conseguido, explicando también los dispositivos que lo hicieron posible, a su juicio, todos relativamente accesibles (aunque muy caros) con los que se puede engañar a los sensores del autopilot de Tesla.

Curiosamente y como vemos en el vídeo final, los investigadores no pusieron al coche en la carretera. Simplemente lo estacionaron y activaron los sensores, radares y cámaras junto a varias máquinas que emitían luz, radio y sonido, lo que se convertía en una prueba ficticia en carretera.

Como los investigadores han explicado, las máquinas empleadas para conseguir engañar al sistema de los Tesla son caras, por lo tanto es poco probable que puedan ser utilizadas por cualquier aspirante a hacker que quiera poner en peligro un coche. Sin embargo, las pruebas también demuestran que la posibilidad existe, y que Tesla y todas las compañías de automóviles que trabajan en tecnologías similares deberán estar siempre alerta para mejorar sus sistemas relativos a la conducción autónoma.

Recordamos que el sistema de Tesla autopilot no es un sistema autónomo de piloto automático. La compañía ha explicado que es un sistema de asistencia en carretera que únicamente se debe emplear en ciertas autopistas y siempre bajo la vigilancia del conductor. Os dejamos con el vídeo.

36 comentarios
  1. No hay nada seguro ...
  2. Hombre, cuando ponen un muñeco con aspecto humano en la carretera, a un conductor humano también le engañan para que frene, pero yo no le llamaría a eso hackear al conductor.
  3. avalancha escribió:Hombre, cuando ponen un muñeco con aspecto humano en la carretera, a un conductor humano también le engañan para que frene, pero yo no le llamaría a eso hackear al conductor.


    El problema que yo veo viene cuando también puede hacer que no detecte ciertos obstáculos cuando está en modo piloto automático. Los sicarios deben estar frotándose las manos.
  4. Ya se vió en Mayo, aunque evite más accidentes, aunque tenga todas las ventajas que sean, la verdad es que ese accidente está sirviendo para que los detractores ya tengan a que agarrarse y ahora demostrando lo que cualquier programador sabe que un sistema informático SIEMPRE va a tener fallos, así que desde Mayo se está avanzando, sí pero hacia el fin del proyecto de conducción autónoma
  5. Si aun conductor le apuntan con un foco muy potente a los ojos, pues también se ostiara, no le veo mucho sentido al estudio ...
  6. cercata escribió:Si aun conductor le apuntan con un foco muy potente a los ojos, pues también se ostiara, no le veo mucho sentido al estudio ...


    Opino igual. Al leer la noticia pensaba que lo hackeaban de verdad...
  7. A mí me parece genial que se quiera investigar para mejorar al máximo los pilotos automáticos. En principio, más allá de putear a quien vaya dentro, no le veo otra utilidad a anular los sistemas de proximidad de un coche. Creo que si esos dispositivos que hacen falta son tan caros, no veo por qué no iban a hacer mejor lo del tiro a la rueda de toda la vida, joder los frenos, o un "lady D", que son muy baratos. La conducción automátca de serie, le pese a quien le pese, estará entre nosotros antes de lo que nos creemos, y no me parece una locura pensar que de aquí a un par de décadas podríamos estar hablando de que se prohibiera conducir a las personas. Personalmente me preocupa más el hecho de que todos nuestros viajes en coche estén geolocalizados.
  8. Que mal cuerpo se me ha puesto :S no sabia lo de la muerte....
  9. Pues es mád un estudio para fastidiar la reputación de Tesla Motors, que para mejorar el producto.

    Elon Musk se está jugando el todo por el todo con Tesla. Si consigue lo que busca, Tesla superará con creces el valor de Microsoft o Google, por falta de competencia y la gigantesca cantidad de patentes que va a coleccionar.

    Pero si Tesla no triunfa...
  10. El método es válido sobre el papel pero no en la realidad, como dicen antes si alguien quiere físicamente fastidiar a un vehículo hay métodos mucho más fácil, accesibles y eficientes que esto. Cojes un cubo de clavos y aceite y lo tiraras en la carretera y tb lo podría ve der como"Método para reducir los elementos tos de seguridad y movilidad del automóvil" y encima universal, vale para cualquier modelo de vehículo actual l (exceptuando tankes y derivados)
Ver más comentarios »