Crédito:CC0 Public Domain
Máquinas que toman decisiones sobre nosotros:¿qué podría salir mal? Ensayos, discursos Los seminarios plantean esa pregunta año tras año a medida que la investigación en inteligencia artificial logra avances asombrosos. Los sesgos incrustados en los algoritmos son solo uno de los muchos problemas como resultado.
Jonathan Shaw, jefe de redacción, Revista de Harvard , escribió a principios de este año:"La inteligencia artificial puede agregar y evaluar grandes cantidades de datos que a veces están más allá de la capacidad humana para analizar sin ayuda, permitiendo así que AI haga recomendaciones de contratación, determinar en segundos la solvencia de los solicitantes de préstamos, y predecir las posibilidades de que los delincuentes reincidan ".
De nuevo, ¿Qué podría salir mal?
"El desarrollo de la IA necesita una sólida orientación moral si queremos evitar algunos de los escenarios más catastróficos previstos por los críticos de la IA, "dijo Stephen Fleischresser, conferenciante, Trinity College de la Universidad de Melbourne, en Cosmos .
Edd Gent en SingularityHub :"Preocupaciones por la privacidad, La transparencia y la capacidad de los algoritmos para deformar el discurso social y político de formas inesperadas han dado lugar a una avalancha de pronunciamientos de las empresas. gobiernos e incluso organizaciones supranacionales sobre cómo llevar a cabo el desarrollo ético de la IA ".
Entonces, la pregunta es, ¿Quién se ocupa de la tienda de IA? Si ya imaginamos qué podría salir mal con la imagen de la IA, OMS, cual individuo, que grupos, Si alguna, ¿Están tratando de canalizar todo el discurso y tomar el liderazgo de un conjunto de reglas de trabajo?
Una lectura buena y oportuna sobre esto ha surgido en Inteligencia de la máquina de la naturaleza . El documento no le ofrece la única solución, pero agita la conversación. Como dice su título, "Los principios por sí solos no pueden garantizar una IA ética".
El autor, Brent Mittelstadt, es del Oxford Internet Institute, Universidad de Oxford, Oxford, Reino Unido y el Instituto Alan Turing, Biblioteca Británica, Londres, REINO UNIDO.
Fleischresser describió a Mittelstadt como "un especialista en ética cuya investigación se centra principalmente en la ética digital en relación con los algoritmos, aprendizaje automático, inteligencia artificial, analítica predictiva, Big Data y sistemas médicos expertos ".
El problema no ha sido la falta de conversación; "La ética de la inteligencia artificial (IA) es ahora un tema global de discusión en los círculos académicos y políticos, ", Afirmó Mittelstadt." Al menos 84 iniciativas público-privadas han producido declaraciones que describen principios de alto nivel, valores y otros principios para orientar el desarrollo ético, despliegue y gobernanza de la IA ".
El problema es que con toda la charla, Las partes interesadas bien intencionadas no han ido mucho más allá de la puerta de salida. La capa de apoyo de declaraciones elevadas y principios en negrita puede estar en su lugar, pero ¿dónde está la capa superior? "La parte verdaderamente difícil de la ética:traducir en realidad teorías normativas, conceptos y valores en buenas prácticas que los profesionales de la IA pueden adoptar:se lanza en el camino como lo hace el proverbial ".
Si bien los altos principios son loables, "Hasta ahora, las iniciativas de ética de la IA han producido en gran medida principios de alto nivel y declaraciones de valor que prometen guiar la acción, pero en la práctica brindan pocas recomendaciones específicas ... Las declaraciones de empresas de inteligencia artificial y desarrolladores que se comprometen con principios éticos de alto nivel y códigos de autorregulación brindan a los legisladores una razón para no aplicar nuevas regulaciones ".
Mittelstadt dijo que "un enfoque basado en principios puede tener un impacto limitado en la gobernanza. Lo que falta:un marco regulatorio unificado que establezca" deberes fiduciarios claros hacia los interesados y los usuarios ". La ausencia de una relación fiduciaria, él dijo, significa que los usuarios "no pueden confiar en que los desarrolladores actuarán en su mejor interés cuando implementen los principios éticos en la práctica".
El documento detalla lo que el autor identificó como áreas de preocupación para el futuro de la ética de la IA.
La rendición de cuentas legal y profesional fue una de las áreas clave en discusión, es decir, "la relativa falta de mecanismos legales y profesionales de rendición de cuentas". Por qué esto es un problema:"Grave, El compromiso a largo plazo con los marcos de autorregulación no puede darse por sentado ".
El autor planteó la pregunta fundamental:Dadas estas debilidades en los mecanismos legales y profesionales de rendición de cuentas existentes para la IA, uno debe preguntarse:"¿es suficiente definir buenas intenciones y esperar lo mejor? Sin mecanismos punitivos complementarios y órganos de gobierno para intervenir cuando falla el autogobierno, un enfoque basado en principios corre el riesgo de simplemente proporcionar falsas garantías de IA ética o confiable ".
¿Hacia dónde vamos desde aquí en la ética de la IA?
El autor dijo que este enfoque "basado en principios" necesita una supervisión cooperativa. Piense en "Estructuras de rendición de cuentas vinculantes y altamente visibles" junto con "procesos claros de implementación y revisión" a nivel sectorial y organizativo. "Se pueden establecer normas profesionales e institucionales definiendo requisitos claros para el diseño inclusivo, revisión ética transparente, documentación de modelos y conjuntos de datos, y auditoría ética independiente ".
© 2019 Science X Network