Después de que el software de seguimiento de carriles malinterpreta las pegatinas en la carretera como si fueran un carril nuevo, el piloto automático del coche de conducción automática lo saca peligrosamente de su curso. (Captura de pantalla de YouTube / Kelsey Atherton)
Es fácil imaginar el momento en que un convoy se convierte en catástrofe. Hay peligros para los que los soldados se entrenan: emboscadas y ataques, artefactos explosivos improvisados e interferencias. Pero, ¿qué sucederá en el futuro cuando el desastre se solucione, no mediante una explosión abrupta, sino mediante pegatinas colocadas estratégicamente en el camino que se avecina, engañando al vehículo líder y a todos sus seguidores para que hagan un cambio de rumbo sin contratiempos?
Esto sigue siendo una hipótesis para los militares por ahora, pero es potencialmente una preocupación viva para los vehículos autónomos operados por civiles. En marzo, Tencent Security Research Lab demostró una variedad de ataques adversarios contra un Tesla Model S. El Tesla tiene características autónomas que le permiten hacer de todo, desde detectar la lluvia y poner en marcha automáticamente los limpiaparabrisas hasta cambiar de carril sin problemas, con una mínima intervención de un conductor humano. Estos sistemas pueden ser engañados y tener un gran efecto, con una comprensión dedicada de cómo funcionan.
Engañar a los limpiaparabrisas para que respondan a los estímulos además del agua es en su mayor parte inofensivo, pero es esclarecedor durante todo el proceso. El limpiaparabrisas automático de Tesla utiliza las cámaras Tesla existentes para tomar una imagen del parabrisas, la alimenta a una red neuronal y luego determina si el parabrisas parece tener gotas de lluvia y necesita ser limpiado. Los investigadores pudieron engañar al limpiaparabrisas automático para que respondiera con diferentes imágenes en una pantalla de televisión en un garaje.
"Invertir los limpiaparabrisas automáticos es un buen punto de partida para la investigación del piloto automático Tesla", escribieron los investigadores en su informe publicado. "Una vez que hayamos entendido cómo funcionan los limpiaparabrisas basados en la visión, podremos probar algunos métodos de ataque."
El informe titulaba que los investigadores engañaron al piloto automático Tesla colocando pegatinas en una carretera.
"Dado que el módulo de visión del piloto automático Tesla tiene un buen rendimiento en el reconocimiento de carriles, entonces pensamos lo contrario, ¿podría el coche considerar algunas marcas discretas que hicimos en el suelo como un carril normal?
En lugar de convencer al coche de que no hay un carril existente, el ataque utiliza unas cuantas pegatinas pequeñas para engañar al coche y hacer que vea un carril que ningún humano vería o rodearía. Un trío de pequeñas pegatinas blancas, espaciadas delante del coche, convencen al vehículo para que siga el carril hacia el carril del tráfico que viene en sentido contrario. (La investigación parece haberse llevado a cabo en un curso cerrado.)
Si no se toma en serio la posibilidad de una desorientación adversaria, los vehículos militares que conducen por su cuenta tendrán un curso intensivo de por qué es importante.
Vea un video de Tencent:
Si no se toma en serio la posibilidad de una desorientación adversaria, los vehículos militares que conducen por su cuenta tendrán un curso intensivo de por qué es importante.
Vea un video de Tencent:
El tráfico civil y comercial no son análogos directos a las operaciones militares, aunque es probable que cualquier vehículo militar que conduzca por su cuenta tenga que percibir y a veces seguir las direcciones de tráfico existentes. Es informativo, sin embargo, porque muestra algunos de los enfoques novedosos que pueden ser diseñados para desactivar los vehículos al entender cómo funciona su autonomía. A medida que el Ejército trabaja para implementar en gran medida convoyes de autoconducción, y especialmente vehículos de combate autodirigidos, vale la pena examinar las formas en que un adversario podría intentar engañar a esos sistemas. El spoofing del GPS es una preocupación viva; poner sistemas a prueba de fallos o de respaldo que comprueben la navegación puramente basada en la visión podría mitigar los riesgos de las pegatinas u otros obstáculos visibles para las máquinas.
Fuente:c4isrnet