El 18 de marzo en Tempe, Arizona, un automóvil autónomo de Uber atropelló y mató a Elaine Herzberg, que caminaba con su bicicleta por una calle. Se suponía que el conductor humano estaba monitoreando el comportamiento del automóvil, pero no lo hizo. Sus sistemas aparentemente no detectaron a la víctima, ya que ni redujo la velocidad ni trató de evitar golpear. Crédito:Herzberg Wikimedia
El accidente fatal que involucró a un automóvil autónomo operado por Uber en los Estados Unidos fue un recordatorio trágico pero oportuno de los peligros de las empresas que se apresuran a implementar la inteligencia artificial para ser las primeras en comercializar.
En el momento del accidente, el conductor que debería haber estado listo para reaccionar en un evento como este estaba mirando hacia abajo. El auto en sí aparentemente no había logrado ver a la peatón y no redujo la velocidad ni trató de evitar golpearla.
Pruebas en el mundo real y riesgos
De nuevo, estamos viendo una tecnología que se está probando principalmente para que funcione en condiciones normales, de modo que se pueda implementar en el mercado y no necesariamente se construya con la seguridad como el enfoque principal. Como dijo el ex desarrollador de la plataforma de inteligencia artificial y aprendizaje automático de Uber, Las empresas de automóviles deben entrenar a sus automóviles en entornos simulados que puedan programarse para capacitarlos en cómo detectar y evitar cualquier número de posibilidades de eventos aleatorios que el automóvil podría encontrar en la carretera.
El aprendizaje automático adolece de un problema fundamental, ya que su capacidad para realizar una tarea depende de los datos que se utilizan para entrenarlo. Se desconoce en gran medida qué algoritmo exacto termina usando para cumplir su propósito final y qué características son las más importantes. Con aprendizaje profundo, las múltiples capas que componen la red neuronal general del software de aprendizaje automático hacen que este proceso sea aún más misterioso y desconocido.
Sabemos que el software de aprendizaje automático detecta sesgos en los datos que se utilizan para probarlo. Se ha demostrado que el software que se utiliza para calcular el riesgo de que un delincuente cometa un delito futuro y que los tribunales de los Estados Unidos utilizan con frecuencia calculan sistemáticamente un riesgo significativamente menor para los delincuentes blancos que para las personas de color. Otros investigadores han demostrado que los algoritmos de aprendizaje automático aprenden los sesgos de género que son inherentes a los textos que se utilizan para entrenarlos.
Los peligros de saber ahora cómo funcionan las cosas han sido claramente demostrados por la reciente admisión de Facebook de que realmente no sabía qué estaban haciendo las personas con los datos de millones de sus usuarios que Facebook les había animado a tomar. Con el uso de su plataforma para la difusión de noticias falsas específicas durante las elecciones presidenciales de EE. UU., Facebook admitió nuevamente que no se había dado cuenta de que los gobiernos extranjeros aprovecharían esta ingenuidad para socavar la democracia.
Más que solo Facebook
Sería un error señalar a Facebook como la única empresa que no sabía que su software podía ser explotado para dañar a las personas y a la sociedad. Las enmiendas del "derecho al olvido" a la legislación sobre privacidad de datos y promulgadas por la Unión Europea se formularon específicamente para hacer frente a la falta de voluntad de Google para corregir los efectos secundarios de su búsqueda en la privacidad de las personas. La legislación en muchos países para hacer que la notificación de violaciones de datos sea obligatoria ha sido necesaria porque las empresas no estaban dispuestas a adoptar la ciberseguridad. y la protección de los datos de sus usuarios, seriamente.
Dado el pasado No hay razón para creer que las empresas que están implementando sistemas basados en IA estén pensando en la seguridad y la privacidad por diseño. De lo contrario, el aprendizaje automático necesita datos, montones, y así las empresas están adquiriendo enormes repositorios de datos de información detallada para explotarlos a través de algoritmos. Si bien se podría argumentar que se maneja de manera responsable, grandes cantidades de datos serán invaluables para la investigación, en materia de salud en particular, los riesgos de cobrar, almacenar y usar esos datos, especialmente en un entorno comercial son muy altos.
Informe del gobierno francés
En Francia, Cédric Villani, matemático ganador del premio Field y miembro de la Asamblea Nacional, ha entregado su informe final detallando una estrategia nacional para el estudio y explotación de la inteligencia artificial. Las recomendaciones cubren muchos de los problemas potenciales que podrían surgir al intentar equilibrar las demandas de investigación, innovación y comercialización de IA. También reconocen la necesidad de salvaguardar la privacidad y la seguridad de la sociedad y de las personas y sugieren un papel activo para el gobierno para asegurarse de que la IA se utilice de una manera que beneficie a la sociedad y respete los derechos y valores humanos.
Sin embargo, nada de esto será fácil. Ya ha habido reclamos de que el Reglamento General de Protección de Datos de Europa (GDPR) entrará en vigencia total el 25 de mayo, pondrá a las empresas de la UE en una situación de desventaja competitiva en comparación con sus competidores en América del Norte y Asia.
Hay que esperar que tragedias como la muerte de Elaine Herzberg, de 49 años, atropellado por un auto Uber autónomo, y la indignación generalizada del desprecio de Facebook por los datos personales de sus usuarios recordará a la gente que existe un beneficio en el progreso tecnológico medido y no en el mantra actual del avance tecnológico a cualquier precio.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original. Este artículo se publicó originalmente en The Conversation. Lea el artículo original.