• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Un proyector se divirtió demasiado con la tecnología del automóvil

    Para. ¿Puedes engañar a un sistema de piloto automático Tesla con un proyector?

    En realidad, ¿Una imagen proyectada de un ser humano es considerada por el sistema del automóvil como una persona real?

    ¿Y está diciendo que Mobileye 630 PRO considera la señal de tráfico proyectada como una señal de tráfico real?

    Estos son hallazgos de un equipo de investigadores que mostraron los tipos de ataques fantasmas que pueden ocurrir para engañar a los sistemas de asistencia al conductor.

    El equipo escribió un artículo y entregó una demostración en video sobre sus experimentos y hallazgos. El documento se llama "El fantasma del ADAS:Ataques fantasmas a los sistemas de asistencia al conductor".

    Los autores son Ben Nassi, Dudi Nassi, Raz Ben-Netanel, Yisroel Mirsky, Oleg Drokin, y Yuval Elovici. Las afiliaciones de los autores incluyen la Universidad Ben-Gurion del Negev y Georgia Tech. Usaron los sistemas Tesla Model X y Mobileye 630 PRO para las pruebas. También utilizaron varias imágenes proyectadas; estos incluían una figura humana y una señal de velocidad en la calle.

    Querían saber si se puede hacer que un sistema piense que es una situación del mundo real, confundiendo el sistema y tomando un nivel de control sobre el sistema. "Los fantasmas también pueden hacer que el Tesla Model X (HW 2.5) frene repentinamente".

    Una demostración de video mostró cómo el automóvil redujo su velocidad de 18 mph a 14 mph como resultado de un fantasma que fue detectado como una persona.

    Observe que usaron mucho la palabra "fantasma":"Un fantasma es un objeto sin profundidad destinado a hacer que los ADAS y los sistemas de piloto automático perciban el objeto y lo consideren real. El objeto puede ser un obstáculo (p. Ej., persona, coche, camión, motocicleta), carril, o señal de tráfico, "dijo Nassi.

    Pero, ¿por qué una famosa marca de vehículos autónomos como Tesla tendría un sistema que vería a los fantasmas como obstáculos reales? Nassi abordó esto en su sitio en la sección de preguntas frecuentes. "Creemos que esto es probablemente el resultado de una política de 'más vale prevenir que curar' que considera una proyección visual como un objeto real aunque el objeto no sea detectado por otros sensores (p. Ej., sensores de radar y ultrasónicos) ".

    Las líneas de carreteras falsas eran parte de sus experimentos y se leyó una instrucción para cruzar al otro lado de la carretera. a través de líneas falsas y carriles fantasmas.

    Alex Kidman, Gizmodo , escribió sobre los experimentos el miércoles. El problema con los sistemas Mobileye y Tesla, el escribio, fue que los investigadores encontraron que el modelo de reconocimiento de imágenes permitía que los objetos fantasma fueran reconocidos como reales. Considerándolo todo, Existe un gran desafío de percepción cuando los ataques fantasmas van contra los sistemas avanzados de asistencia a la conducción (ADAS) y los pilotos automáticos.

    Cyber ​​Security Labs en la Universidad Ben Gurion publicó un video el 28 de enero.

    La herramienta de piloto automático de Tesla generalmente se considera el estándar de oro actual en vehículos autónomos. dijo Gizmodo . En efecto, los autores del artículo consideran Mobileye 630 PRO y el Tesla Model X, HW 2.5 como las tecnologías de piloto automático y ADAS más avanzadas de la actualidad.

    El nivel de piloto automático de Tesla permite limitaciones no lleno, conducción autónoma:el vehículo tiene el control total solo en algunas situaciones e informará al conductor cuándo debe hacerse cargo.

    Como Ars Technica Jim Salter enfatizó en su artículo, "Por supuesto, nadie debería permitir que un Tesla se conduzca sin supervisión en primer lugar, "ya que Autopilot no es el controlador de un automóvil totalmente autónomo.

    Salter hizo ese punto para tender un puente sobre otro punto importante:"Dentro de estas limitaciones, incluso la peor de las respuestas demostradas en el video de Nassi, la del Model X desviándose para seguir los marcadores de carriles falsos en la carretera, no parece tan mala. De hecho, ese clip demuestra exactamente lo que debería suceder:el propietario del Model X, preocupado por lo que podría hacer su costoso automóvil, frenó y tomó el control manualmente después de que el piloto automático tomó una dirección insegura ".

    El equipo dijo que revelaron los hallazgos a Mobileye y Tesla, los dos sistemas utilizados en los experimentos. "Mantuvimos a Tesla y Mobileye actualizados a través de una serie de correos electrónicos enviados desde principios de mayo hasta el 19 de octubre".

    El resumen de su artículo:

    "... investigamos un nuevo desafío perceptivo que hace que los ADAS y los pilotos automáticos de semi / totalmente autónomos consideren objetos sin profundidad (fantasmas) como reales. Mostramos cómo los atacantes pueden explotar este desafío perceptivo ... sin la necesidad de acercarse físicamente al escena de ataque, proyectando un fantasma a través de un dron equipado con un proyector portátil o presentando un fantasma en una valla publicitaria digital pirateada que se enfrenta a Internet y se encuentra cerca de las carreteras ... el ADAS o el piloto automático de un automóvil considera los fantasmas como objetos reales, haciendo que estos sistemas activen los frenos, dirigirse al carril del tráfico que se aproxima, y emitir notificaciones sobre señales de tráfico falsas ".

    ¿Opciones de mitigación? Los autores, mitigar, presentó "un modelo que analiza el contexto de un objeto detectado, superficie, y luz reflejada, que es capaz de detectar fantasmas con 0,99 AUC. Finalmente, explicamos por qué el despliegue de sistemas de comunicación vehicular podría reducir las oportunidades de los atacantes para aplicar ataques fantasma, pero no los eliminará ".

    Salter se remonta a hace seis meses, cuando "Ben Nassi, un doctorado estudiante de la Universidad Ben-Gurion asesorado por el profesor Yuval Elovici, llevó a cabo con éxito una serie de ataques de suplantación de identidad contra un sistema de asistencia al conductor Mobileye 630 Pro utilizando drones económicos y proyectores que funcionan con baterías. Desde entonces, ha ampliado la técnica para experimentar, también con éxito, confundir un Tesla Model X ".

    Salador, considerándolo todo, intervino con su punto de vista sobre lo que enseñaba la investigación y por qué era importante:"en su mayor parte, Nos parece que el Tesla responde bastante razonable y bien a estos intentos deliberados de confundir sus sensores. Creemos que este tipo de trabajo es importante, sin embargo, ya que demuestra la necesidad de un diseño defensivo de los sistemas de conducción semiautónomos ".

    Los autores en su artículo escribieron:"No tenemos nada contra Tesla o Mobileye, y la razón por la que sus productos se utilizaron en nuestros experimentos es porque sus productos son los mejores y más populares disponibles en el mercado ".

    © 2020 Science X Network




    © Ciencia https://es.scienceaq.com