Una de las preguntas urgentes que surgen con la inteligencia artificial es cómo dar cuenta de las acciones de las máquinas que toman decisiones por sí mismas. Crédito:Imágenes de la UIT, con licencia CC BY 2.0
Tecnologías digitales como inteligencia artificial y robótica, Necesitan 'desesperadamente' un marco institucional y un sistema de valores para ayudar a regular la industria, un experto en ética le ha dicho a los principales científicos y políticos.
Jeroen van den Hoven, profesor de ética y tecnología en la Universidad Tecnológica de Delft en los Países Bajos, habló en una sesión sobre ética en ciencia y tecnología en el Foro Abierto EuroScience (ESOF) 2018, que se celebra en Toulouse, Francia, del 9 al 14 de julio.
"La gente se está dando cuenta de que esta era digital no es neutral ..., Nos lo presentan principalmente las grandes corporaciones que quieren obtener algún beneficio, " él dijo.
Pidió una red europea de instituciones que puedan proporcionar un conjunto de valores, basado en la Carta de los Derechos Fundamentales de la UE, dentro del cual la industria de la tecnología podría operar.
"Tenemos que configurar, como lo hemos hecho con la comida, para la aviación y el tráfico, ... un elaborado sistema de instituciones que analizará este campo de la inteligencia artificial.
"Tenemos que pensar en la gobernanza, inspección, vigilancia, pruebas, Certificación, clasificación, Estandarización, educación, todas estas cosas. No están ahí. Necesitamos desesperadamente y muy rapido, ayudarnos a nosotros mismos ".
El profesor van den Hoven es miembro del Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías (EGE), un organismo asesor independiente para la Comisión Europea, que organizó la sesión en la que estaba hablando.
En marzo, el EGE publicó una declaración sobre inteligencia artificial (IA), robótica y sistemas autónomos, que criticaba el actual 'mosaico de iniciativas dispares' en Europa que intentan abordar lo social, cuestiones legales y éticas que ha generado la IA. En la declaración, el EGE pidió el establecimiento de un marco estructurado.
La Comisión Europea anunció el 14 de junio que había encargado a un grupo de alto nivel de 52 personas del mundo académico, sociedad e industria con el trabajo de desarrollar directrices sobre la política de la UE relacionada con la IA, incluyendo cuestiones éticas como la equidad, la seguridad, transparencia y defensa de los derechos fundamentales.
El grupo de expertos, que incluye representantes de líderes de la industria en IA como Google, BMW y Santander, deben presentar sus directrices a la Comisión Europea a principios de 2019.
Parcialidad
Los problemas éticos que rodean a la inteligencia artificial, como el sesgo en los algoritmos de aprendizaje automático y cómo supervisar la toma de decisiones de las máquinas autónomas, también atrajeron un amplio debate en la conferencia ESOF 2018.
Una preocupación importante que surge con el rápido desarrollo del aprendizaje automático, es la cuestión de cómo dar cuenta de las acciones de una máquina. Este es un problema particular cuando se usa IA basada en redes neuronales, un sistema complejo creado para imitar el cerebro humano que le permite aprender de grandes conjuntos de datos. Esto a menudo da como resultado que el algoritmo se convierta en lo que se conoce como una 'caja negra, "donde es posible ver lo que entra y lo que sale, pero no cómo se llegó al resultado.
Maaike Harbers, profesor de investigación en la Universidad de Ciencias Aplicadas de Rotterdam en los Países Bajos, dijo que este era un tema importante en el ejército, donde se utilizan drones armados para realizar acciones.
"En el ámbito militar, un concepto muy importante es el control humano significativo, ", dijo." Sólo podemos controlar o dirigir máquinas autónomas si entendemos lo que está sucediendo ".
El profesor Harbers agregó que un buen diseño de la interfaz entre humanos y máquinas puede ayudar a garantizar que los humanos ejerzan el control en tres etapas importantes:entrada de datos, procesamiento y razonamiento, y la salida o acción.
Incluso en tecnologías que utilizan IA para propósitos que parecen ser abrumadoramente positivos, como robots sociales de compañía para niños, plantear algunas cuestiones éticas delicadas. La audiencia de la conferencia escuchó que los investigadores que trabajan en esta área están lidiando con el efecto que estas tecnologías pueden tener en las relaciones familiares. por ejemplo, o si podrían crear desigualdades en la sociedad, o si pueden crear aislamiento social.
En el campo del transporte automatizado, Los investigadores también están analizando el impacto que podrían tener los vehículos autónomos en cuestiones más amplias como la justicia y la igualdad. Están investigando cuestiones que van desde cómo garantizar la igualdad de acceso a las nuevas formas de transporte hasta quién debería beneficiarse de los ahorros de costes asociados con el transporte automatizado.
Sin embargo, Los valores que inculcamos en la IA pueden ser un factor clave en la aceptación pública de las nuevas tecnologías.
Uno de los dilemas morales más conocidos que involucra a los autos autónomos, por ejemplo, es el llamado problema del carro. Esto plantea la cuestión de si un vehículo autónomo que se dirige hacia un accidente que involucra a un grupo de personas debería evitarlo desviándose en un camino que golpearía a una sola persona.
Dr. Ebru Burcu Dogan del Instituto Vedecom en Francia, dijo que la investigación muestra que si bien la gente estaba a favor de una solución utilitaria al dilema, por ejemplo, matando al conductor en lugar de a cinco peatones, ellos personalmente no querrían comprar o viajar en un vehículo que fue programado de esa manera.
"Todos queremos beneficiarnos de la implementación de una tecnología, pero no necesariamente queremos cambiar nuestro comportamiento, o adoptar un comportamiento necesario para llegar allí ".