Cuando un Uber autónomo en Arizona no logró frenar, atropelló fatalmente a una mujer de 49 años.
La semana pasada, La Junta Nacional de Seguridad en el Transporte de EE. UU. (NTSB) publicó su informe preliminar sobre el accidente de conducción autónoma de Uber que mató a una mujer en marzo.
La NTSB descubrió que el automóvil identificó un objeto en la carretera segundos antes del accidente. pero el vehículo no se detuvo. Los sensores de radar y Lidar del SUV Volvo XC-90 modificado detectaron a Elaine Herzberg, de 49 años, unos seis segundos antes del accidente. El vehículo clasificó a Herzberg primero como un objeto, luego como vehículo, y finalmente como una bicicleta mientras caminaba con su bicicleta por la calle.
Aproximadamente un segundo antes del impacto, el sistema de conducción autónoma determinó que era necesario un frenado de emergencia para evitar una colisión. Pero, Uber había desactivado el sistema de frenado automático de emergencia equipado de fábrica de Volvo para evitar choques con su propia tecnología. decía el informe.
Las cosas empeoraron a partir de ahí.
La NTSB también descubrió que el software de conducción autónoma de Uber había sido entrenado para no aplicar su propio frenado de emergencia en situaciones que amenazaban con un "comportamiento errático del vehículo". Esto se hizo para proporcionar un viaje cómodo:Demasiadas detecciones de falsos positivos (por ejemplo, hojas de árboles, arbustos o bolsas de plástico en la carretera) resultarían en una gran cantidad de frenos de emergencia que ningún pasajero tolerará.
Entonces, en lugar de, la empresa confió en el controlador de respaldo para intervenir en el último minuto para evitar desastres. Eso no sucedió.
Repensar el nivel 3 y la automatización condicional
La mayoría de las pruebas de conducción autónoma actuales requieren la intervención humana. Esto es lo que se conoce como Nivel 3 o automatización condicional:la etapa en el desarrollo de vehículos autónomos que creo que es la más peligrosa porque implica la transferencia del control del vehículo al conductor de respaldo en caso de emergencia.
Pocas empresas ya han optado por saltarse el Nivel 3 y apuntar al Nivel 4 más seguro (autonomía total).
De hecho, Yo diría que el Nivel 3 debería prohibirse explícitamente en carreteras abiertas. Tener un paso humano dentro del circuito de control en el último minuto posible es nada menos que un desastre garantizado.
Con ambos sistemas automáticos de frenado de emergencia no disponibles en el vehículo Uber, la empresa confiaba en que el operador de respaldo interviniera en el momento oportuno para evitar un accidente. Esto es problemático porque pasar el control del automóvil al ser humano presenta muchas dificultades, especialmente en situaciones en las que el operador de respaldo se ha dividido en zonas. Las imágenes de video mostraron al operador mirando hacia abajo inmediatamente antes del accidente. Frenó solo después de la colisión. Herzberg fue asesinado.
El nivel 3 también proporciona a los conductores una falsa sensación de seguridad. En marzo, un conductor de Tesla murió en un accidente en California cuando su vehículo funcionaba con piloto automático. En mayo de 2016, un conductor de Tesla murió cuando su automóvil, también en piloto automático, chocó contra un camión en Florida. Estos vehículos están diseñados para ser conducidos por humanos, asistido por tecnologías de conducción autónoma, no manejado por computadoras con supervisión humana.
Intervención reguladora:el camino a seguir
El informe de la NTSB destaca no solo las deficiencias del programa de pruebas de Uber, pero también un fallo en la regulación de las pruebas en carreteras abiertas.
Un informe publicado el año pasado mostró que la preparación del software de conducción autónoma varía entre los diferentes proveedores. El software de conducción autónoma de Waymo era 5, 000 veces más seguro que el de Uber, según el informe. Esto se midió de acuerdo con la tasa de desconexiones, cuando el sistema automatizado obligó al conductor de respaldo a tomar el control del vehículo. La tasa de Uber fue de 1 desvinculación por milla conducida, mientras que el de Waymo fue de 1 desvinculación cada 5, 128 millas!
La industria se autorregula y se desconoce cómo determinan si su tecnología es segura para operar en la vía pública. Los reguladores tampoco han proporcionado los criterios para hacer tales determinaciones.
Si bien es necesario probar el rendimiento del software de conducción autónoma en condiciones de la vida real, las pruebas en carreteras abiertas no deben tener como objetivo probar la seguridad de los sistemas. Las pruebas de seguridad deben evaluarse exhaustivamente antes de permitir que los vehículos circulen por las vías públicas.
Un curso de acción apropiado sería que los reguladores propongan un conjunto de pruebas estandarizadas, y solicitar a las empresas que comparen sus algoritmos con los mismos conjuntos de datos.
Los reguladores deben seguir un enfoque gradual para la certificación. Primero, el sistema de conducción autónoma se evalúa en entornos de simulación. Esto proporciona la confianza de que el sistema funciona de forma segura. A esto le siguen las pruebas en el mundo real en entornos confinados (por ejemplo, en bancos de pruebas). Una vez que los vehículos pasen las pruebas de referencia, los reguladores pueden permitirlos en carreteras abiertas pero también con condiciones de seguridad.
Este trágico incidente debería ser un catalizador para que los reguladores establezcan una cultura de seguridad sólida y sólida para guiar las innovaciones en las tecnologías de conducción autónoma. Sin esto, El despliegue de vehículos autónomos no llegaría a ninguna parte muy rápido.