¿Va a parar? Crédito:marat marihal / Shutterstock.com
El 19 de marzo un vehículo autónomo de Uber que se estaba probando en Arizona atropelló y mató a Elaine Herzberg, que caminaba con su bicicleta al otro lado de la calle. Esta es la primera vez que un vehículo autónomo mata a un peatón, y plantea preguntas sobre la ética de desarrollar y probar tecnologías emergentes. Algunas respuestas deberán esperar hasta que se complete la investigación completa. Aún así, Nicolás Evans, profesor de filosofía en la Universidad de Massachusetts-Lowell que estudia la ética de los procesos de toma de decisiones de los vehículos autónomos, dice que ahora se pueden responder algunas preguntas.
1. ¿Podría un conductor humano haber evitado este accidente?
Probablemente. Es fácil pensar que la mayoría de la gente tendría problemas para ver a un peatón cruzar una calle por la noche. Pero lo que ya está claro sobre este evento en particular es que el camino no estaba tan oscuro como afirmó inicialmente el jefe de la policía local.
El jefe también dijo originalmente que Herzberg de repente salió al tráfico frente al automóvil. Sin embargo, el perturbador y alarmante video publicado por Uber y las autoridades locales muestra que esto no es cierto:más bien, Herzberg ya había cruzado un carril de la carretera de dos carriles, y estaba en el proceso de continuar el cruce cuando el Uber la golpeó. (El conductor de seguridad tampoco notó al peatón, pero el video sugiere que el conductor estaba mirando hacia abajo, no a través del parabrisas.)
Un conductor humano normal alguien prestando atención activamente a la carretera, probablemente habría tenido pocos problemas para evitar a Herzberg:con los faros encendidos mientras viajaba a 40 mph en una carretera realmente oscura, no es difícil evitar obstáculos en una recta cuando están a 30 o más pies de distancia, incluidas las personas o la vida silvestre que intentan cruzar. Este accidente fue evitable.
Una trágica implicación de ese hecho es clara:un automóvil autónomo mató a una persona. Pero también hay un significado público. Al menos este automóvil de Uber se condujo solo en calles pobladas sin poder realizar la tarea de seguridad crucial de detectar a un peatón. y frenar o maniobrar para no golpear a la persona.
A raíz de la muerte de Herzberg, la seguridad y confiabilidad de los autos autónomos de Uber se han puesto en duda. También vale la pena examinar la ética:así como se ha criticado a Uber por explotar a sus impulsores para obtener ganancias, la empresa podría estar explotando la conducción, público a caballo y a pie para sus propios fines de investigación.
2. Incluso si este bloqueo se pudiera evitar, ¿Los coches autónomos siguen siendo en general más seguros que los conducidos por humanos?
Todavía no. El número de muertos en las carreteras de EE. UU. Es realmente alarmante:aproximadamente 32, 000 muertes por año. La estimación federal es que 1,18 personas mueren por cada 100 millones de millas de carretera conducidas por humanos. Los autos de Uber solo recorrieron 3 millones de millas, sin embargo, antes de su primera fatalidad. No es justo hacer un análisis estadístico desde un solo punto de datos, pero no es un gran comienzo:las empresas deberían tener como objetivo hacer que sus robots sean al menos tan buenos como los humanos, si aún no está cumpliendo la promesa de ser significativamente mejor.
Incluso si los autos autónomos de Uber fueran mejores conductores, los números no cuentan toda la historia. De los 32, 000 personas que mueren en las carreteras de EE. UU. Cada año, 5, 000 a 6, 000 son peatones. Al apuntar a mejoras de seguridad, ¿Debería el objetivo ser reducir las muertes en general o poner especial énfasis en proteger a las víctimas más vulnerables? Ciertamente, es hipotéticamente posible imaginar un sistema de automóvil autónomo que reduzca a la mitad las muertes en carretera en general, a 16, 000 - mientras se duplica la tasa de mortalidad de peatones - a 12, 000. En general, eso puede parecer mucho mejor que los conductores humanos, ¡pero no desde la perspectiva de las personas que caminan por las carreteras de la nación!
Mi grupo de investigación ha estado trabajando para desarrollar marcos de decisiones éticas para vehículos autónomos. Un enfoque potencial se llama "maximin". Fundamentalmente, Esa forma de pensar sugiere que las personas que diseñan vehículos autónomos, tanto físicamente como en términos del software que los ejecuta, deben identificar los peores resultados posibles de cualquier decisión. incluso si es raro, y trabajar para minimizar sus efectos. Cualquiera que haya tenido la mala suerte de ser atropellado por un automóvil tanto como peatón como mientras estaba en un vehículo sabe que ir a pie es mucho peor. Bajo maximin, la gente debería diseñar y probar coches, entre otras cosas, priorizar la seguridad de los peatones.
Maximin probablemente no sea la mejor teoría de decisión moral posible, y ciertamente no es la única, que se puede usar. En algunos casos, ¡El peor resultado podría evitarse si un automóvil nunca sale de su camino de entrada! Pero maximin proporciona elementos para reflexionar sobre cómo integrar los vehículos autónomos en la vida diaria. Incluso si los coches autónomos siempre se evalúan como más seguros que los humanos, lo que se considera "más seguro" es muy importante.
3. ¿Cuánto mejores deberían ser los coches autónomos que los humanos antes de que el público los acepte?
Incluso si la gente pudiera ponerse de acuerdo sobre las formas en que los vehículos autónomos deberían ser más seguros que los humanos, No está claro que las personas deban estar de acuerdo con los autos autónomos cuando por primera vez se vuelven apenas mejores que los humanos. Si algo, ahí es cuando deberían comenzar las pruebas en las calles de la ciudad.
Considere un nuevo medicamento desarrollado por una empresa farmacéutica. La compañía no puede comercializarlo tan pronto como se demuestre que no mata a las personas que lo toman. Bastante, el medicamento debe pasar por una serie de pruebas que demuestren que es eficaz para tratar el síntoma o la afección a la que se destina. Cada vez más, Las pruebas de drogas buscan demostrar que un medicamento es significativamente mejor que lo que ya está en el mercado. La gente debería esperar lo mismo de los coches autónomos antes de que las empresas pongan en riesgo al público.
El accidente en Arizona no fue solo una tragedia. No ver a un peatón con poca luz fue un error básico evitable para un automóvil autónomo. Los vehículos autónomos deberían poder hacer mucho más que eso antes de que se les permita conducir. incluso en las pruebas, en el camino abierto. Al igual que las empresas farmacéuticas, Se debería exigir a las empresas de tecnología masiva que prueben a fondo, y de manera ética, sus sistemas antes de que sus vehículos autónomos sirvan o pongan en peligro al público.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original.