Crédito:CC0 Public Domain
De las telecomunicaciones al tráfico rodado, desde la atención médica hasta el lugar de trabajo:la tecnología digital es ahora una parte intrínseca de casi todas las áreas de la vida. Sin embargo, ¿cómo podemos garantizar que los desarrollos en este campo, especialmente aquellos que dependen de la inteligencia artificial (IA), cumplir con toda nuestra ética, preocupaciones legales y tecnológicas? En un proyecto liderado por el Instituto Fraunhofer de Análisis Inteligente y Sistemas de Información IAIS, y con la participación de la Oficina Federal de Seguridad de la Información (BSI) de Alemania, un equipo interdisciplinario de científicos de las universidades de Bonn y Colonia está elaborando un catálogo de inspección para la certificación de aplicaciones de IA. Ahora han publicado un libro blanco que presenta los aspectos filosóficos, ético, cuestiones legales y tecnológicas involucradas.
La inteligencia artificial está cambiando nuestra sociedad, nuestra economía y nuestra vida cotidiana de manera fundamental. Y al hacerlo, está creando algunas oportunidades interesantes en la forma en que vivimos y trabajamos juntos. Por ejemplo, ya ayuda a los médicos a evaluar mejor las radiografías, lo que a menudo conduce a un diagnóstico más preciso. Es la base de los chatbots que brindan respuestas útiles a las personas que buscan consejos sobre, por ejemplo, seguro. Y, en poco tiempo, permitirá que los coches sean cada vez más autónomos. Los pronósticos actuales indican que el número de aplicaciones de IA aumentará exponencialmente en los próximos años. McKinsey, por ejemplo, proyecta un crecimiento global adicional de la IA de hasta 13 mil millones de dólares estadounidenses para 2030.
Al mismo tiempo, Está claro que debemos asegurarnos de que nuestro uso de la IA y las oportunidades que brinda permanezcan en armonía con los puntos de vista y los valores de nuestra sociedad. Actuando bajo la égida de Kompetenzplattform KI.NRW, una plataforma de competencias de IA en el estado de Renania del Norte-Westfalia, un equipo interdisciplinario se ha unido para desarrollar un proceso de certificación para las aplicaciones de IA que deben llevar a cabo examinadores acreditados. Esto confirmará el cumplimiento de un estándar de calidad certificado que, Sucesivamente, permitirá a las empresas de tecnología diseñar de forma verificable aplicaciones de IA que sean técnicamente fiables y éticamente aceptables.
"El propósito de la certificación es ayudar a establecer estándares de calidad para la IA fabricada en Europa, garantizar un enfoque responsable de esta tecnología y promover una competencia leal entre los distintos actores, "dice el Prof. Dr. Stefan Wrobel, director de Fraunhofer IAIS y profesor de informática en la Universidad de Bonn.
Centrándonos en el aspecto humano
La inteligencia artificial tiene el potencial de ampliar nuestras capacidades y proporcionarnos nuevos conocimientos. Sin embargo, una vez que empezamos a basar nuestras decisiones en el aprendizaje automático, que está total o parcialmente automatizado, enfrentaremos una serie de nuevos desafíos. La viabilidad técnica de tales aplicaciones es una consideración. Primero y ante todo, sin embargo, debemos resolver el filosófico básico, cuestiones éticas y legales. Para garantizar que las necesidades de las personas estén firmemente integradas en el centro del desarrollo de esta tecnología, diálogo estrecho entre los campos de la tecnología de la información, la filosofía y la ley son necesarias.
El equipo de expertos ha publicado ahora un documento técnico en el que detallan su enfoque interdisciplinario del proceso de certificación. Por ejemplo, explican los principios éticos involucrados. "Cualquiera que utilice IA debería poder actuar correctamente de acuerdo con sus convicciones morales, y nadie debe ser restringido en sus derechos, libertad o autonomía, "dice el Prof. Dr. Markus Gabriel, profesor de filosofía en la Universidad de Bonn. También se han abordado cuestiones legales. "Por ejemplo, Necesitamos determinar cómo se pueden hacer las aplicaciones de IA para ajustarse a los valores y principios básicos de un estado gobernado por el estado de derecho y sujeto a los principios de libertad. "explica el profesor Frauke Rostalski, profesor de derecho en la Universidad de Colonia.
Prioridades para generar confianza en el uso de la IA
Este enfoque interdisciplinario ha identificado una serie de aspectos éticos, cuestiones legales y tecnológicas de relevancia para el uso de la IA. Todos estos se examinan en el libro blanco. Los criterios empleados en un proceso de certificación deben incluir equidad, transparencia, autonomía, control, protección de Datos, la seguridad, seguridad y confiabilidad. Por tanto, las recomendaciones de la UE también sirven de orientación para el proyecto de certificación KI.NRW.
El proceso de certificación girará en torno a preguntas como:¿La aplicación de IA respeta las leyes y los valores de la sociedad? ¿El usuario conserva una autonomía total y efectiva sobre la aplicación? ¿La aplicación trata a todos los participantes de manera justa? ¿La aplicación funciona y toma decisiones de forma transparente y comprensible? ¿Es la aplicación confiable y robusta? ¿Es seguro contra ataques? accidentes y errores? ¿La aplicación protege el ámbito privado y otra información confidencial?
Incorporación de comprobaciones y controles en la etapa de diseño
Según el libro blanco, se debe determinar durante el proceso de diseño inicial si la aplicación es ética y legalmente permisible y, de ser así, qué verificaciones y controles deben formularse para regir este proceso. Un criterio necesario es garantizar que el uso de la aplicación no comprometa a nadie que la use en su capacidad para tomar una decisión moral, como si existiera la opción de rechazar el uso de IA, y que sus derechos y libertades no se vean restringidos de ninguna manera. .
La transparencia es otro criterio importante:los expertos enfatizan que la información sobre el uso correcto de la aplicación debe estar fácilmente disponible, y los resultados determinados mediante el uso de IA en la aplicación deben ser completamente interpretables, rastreable y reproducible por el usuario. Intereses conflictivos, como la transparencia y la no divulgación de secretos comerciales, deben equilibrarse entre sí.
El plan es publicar una versión inicial del catálogo de inspección a principios de 2020 y luego comenzar con la certificación de las aplicaciones de IA. Este proyecto también cuenta con la participación de la Oficina Federal de Seguridad de la Información (BSI) de Alemania, que tiene una amplia experiencia en el desarrollo de estándares de TI seguros. Este conocimiento se incorporará al proceso de certificación. Finalmente, dado que la IA está en constante evolución, el catálogo de inspección en sí será un "documento vivo" que necesita una actualización continua.