La muerte el pasado mes de mayo del primer conductor de un Tesla Model S con el sistema de la compañía autopilot activado hizo saltar las alarmas. Por primera vez se veía seriamente atacada por muchos medios y detractores de la tecnología, pero Tesla se defendió explicando que su sistema no es un piloto automático autónomo por el que el conductor deba olvidarse de la conducción. Ahora, un grupo de investigadores ha logrado hackear su conocido sistema.
No es la primera vez. Hace dos años ya hablábamos de cómo un grupo de hackers chinos había conseguido controlar a distancia varias funciones del Tesla Model S. Además, el año pasado ya le tocó el turno al Jeep Cherokee, a través una vulnerabilidad que permitía controlarlo de forma remota.
Lo conseguido ahora por un grupo de investigadores de la Universidad de Carolina del Sur y la Universidad de Zhejiang en China, en colaboración con la empresa de seguridad china Qihoo 360, es engañar o confundir de manera intencional los sensores del piloto semiautomático de la compañía para hacerle creer que no hay nada a su alrededor cuando no es así, o viceversa, haciéndole creer que hay objetos cuando no los hay.
Según ha explicado este grupo, conforme nos acerquemos al final de la conferencia de hackers Defcon que se está celebrando desvelarán y detallarán la manera en la que lo han conseguido, explicando también los dispositivos que lo hicieron posible, a su juicio, todos relativamente accesibles (aunque muy caros) con los que se puede engañar a los sensores del autopilot de Tesla.
Curiosamente y como vemos en el vídeo final, los investigadores no pusieron al coche en la carretera. Simplemente lo estacionaron y activaron los sensores, radares y cámaras junto a varias máquinas que emitían luz, radio y sonido, lo que se convertía en una prueba ficticia en carretera.
Como los investigadores han explicado, las máquinas empleadas para conseguir engañar al sistema de los Tesla son caras, por lo tanto es poco probable que puedan ser utilizadas por cualquier aspirante a hacker que quiera poner en peligro un coche. Sin embargo, las pruebas también demuestran que la posibilidad existe, y que Tesla y todas las compañías de automóviles que trabajan en tecnologías similares deberán estar siempre alerta para mejorar sus sistemas relativos a la conducción autónoma.
Recordamos que el sistema de Tesla autopilot no es un sistema autónomo de piloto automático. La compañía ha explicado que es un sistema de asistencia en carretera que únicamente se debe emplear en ciertas autopistas y siempre bajo la vigilancia del conductor. Os dejamos con el vídeo.
No es la primera vez. Hace dos años ya hablábamos de cómo un grupo de hackers chinos había conseguido controlar a distancia varias funciones del Tesla Model S. Además, el año pasado ya le tocó el turno al Jeep Cherokee, a través una vulnerabilidad que permitía controlarlo de forma remota.
Lo conseguido ahora por un grupo de investigadores de la Universidad de Carolina del Sur y la Universidad de Zhejiang en China, en colaboración con la empresa de seguridad china Qihoo 360, es engañar o confundir de manera intencional los sensores del piloto semiautomático de la compañía para hacerle creer que no hay nada a su alrededor cuando no es así, o viceversa, haciéndole creer que hay objetos cuando no los hay.
Según ha explicado este grupo, conforme nos acerquemos al final de la conferencia de hackers Defcon que se está celebrando desvelarán y detallarán la manera en la que lo han conseguido, explicando también los dispositivos que lo hicieron posible, a su juicio, todos relativamente accesibles (aunque muy caros) con los que se puede engañar a los sensores del autopilot de Tesla.
Curiosamente y como vemos en el vídeo final, los investigadores no pusieron al coche en la carretera. Simplemente lo estacionaron y activaron los sensores, radares y cámaras junto a varias máquinas que emitían luz, radio y sonido, lo que se convertía en una prueba ficticia en carretera.
Como los investigadores han explicado, las máquinas empleadas para conseguir engañar al sistema de los Tesla son caras, por lo tanto es poco probable que puedan ser utilizadas por cualquier aspirante a hacker que quiera poner en peligro un coche. Sin embargo, las pruebas también demuestran que la posibilidad existe, y que Tesla y todas las compañías de automóviles que trabajan en tecnologías similares deberán estar siempre alerta para mejorar sus sistemas relativos a la conducción autónoma.
Recordamos que el sistema de Tesla autopilot no es un sistema autónomo de piloto automático. La compañía ha explicado que es un sistema de asistencia en carretera que únicamente se debe emplear en ciertas autopistas y siempre bajo la vigilancia del conductor. Os dejamos con el vídeo.
El problema que yo veo viene cuando también puede hacer que no detecte ciertos obstáculos cuando está en modo piloto automático. Los sicarios deben estar frotándose las manos.
Opino igual. Al leer la noticia pensaba que lo hackeaban de verdad...
Elon Musk se está jugando el todo por el todo con Tesla. Si consigue lo que busca, Tesla superará con creces el valor de Microsoft o Google, por falta de competencia y la gigantesca cantidad de patentes que va a coleccionar.
Pero si Tesla no triunfa...