Todos tienen su propia idea sobre el uso ético de la IA, pero, ¿podemos lograr un consenso global? Crédito:Shutterstock / EtiAmmos
Australia se encuentra entre los 42 países que la semana pasada se adhirieron a un nuevo conjunto de directrices políticas para el desarrollo de sistemas de inteligencia artificial (IA).
Sin embargo, Australia tiene su propio borrador de directrices para la ética en la IA para consulta pública. y varios otros países y organismos de la industria han desarrollado sus propias pautas de IA.
Entonces, ¿por qué necesitamos tantas pautas? y ¿alguno de ellos es ejecutable?
Los nuevos principios
El último conjunto de directrices políticas es la Recomendación sobre inteligencia artificial de la Organización para la Cooperación y el Desarrollo Económicos (OCDE).
Promueve cinco principios para el desarrollo responsable de una IA confiable. También incluye cinco estrategias complementarias para el desarrollo de políticas nacionales y cooperación internacional.
Dado que esto proviene de la OCDE, Traza la línea entre promover la mejora económica y la innovación y fomentar los valores fundamentales y la confianza en el desarrollo de la IA.
Los cinco principios de la IA fomentan:
Estas recomendaciones son amplias y no tienen fuerza de ley o incluso de reglas. En su lugar, buscan alentar a los países miembros a incorporar estos valores o éticas en el desarrollo de la IA.
Pero, ¿qué entendemos por IA?
Es difícil hacer recomendaciones específicas en relación con la IA. Eso se debe en parte a que la IA no es una cosa con una sola aplicación que presente riesgos o amenazas singulares.
En lugar de, La IA se ha convertido en un término general para referirse a una gran cantidad de sistemas diferentes. Por lo general, cada uno está diseñado para recopilar y procesar datos utilizando tecnología informática, adaptarse al cambio, y actuar racionalmente para lograr sus objetivos, en última instancia, sin intervención humana.
Esos objetivos pueden ser tan diferentes como traducir un idioma, identificar caras, o incluso jugando al ajedrez.
El tipo de IA que es excepcionalmente bueno para completar estos objetivos a menudo se conoce como IA estrecha. Un buen ejemplo es la IA que juega al ajedrez. Está diseñado específicamente para jugar al ajedrez, y es muy bueno en eso, pero es completamente inútil en otras tareas.
Por otro lado está la IA general. Esta es la IA que se dice que reemplazará a la inteligencia humana en la mayoría, si no en todas, las tareas. Esto todavía está muy lejos, pero sigue siendo el objetivo final de algunos desarrolladores de IA.
Sin embargo, es esta idea de la IA general la que impulsa muchos de los miedos y conceptos erróneos que rodean a la IA.
Muchas, muchas pautas
Respondiendo a estos miedos y a una serie de problemas muy reales con la IA estrecha, Las recomendaciones de la OCDE son el último de una serie de proyectos y directrices de gobiernos y otros organismos de todo el mundo que buscan inculcar un enfoque ético para el desarrollo de la IA.
Estos incluyen iniciativas del Instituto de Ingenieros Eléctricos y Electrónicos, la autoridad francesa de protección de datos, la Oficina del Comisionado de Privacidad de Hong Kong y la Comisión Europea.
El gobierno australiano financió CSIRO's Data61 para desarrollar un marco de ética de IA, que ahora está abierto a comentarios del público, y el Australian Council of Learned Academies aún no ha publicado su informe sobre el futuro de la IA en Australia.
La Comisión Australiana de Derechos Humanos, junto con el Foro Económico Mundial, también está revisando e informando sobre el impacto de la IA en los derechos humanos.
El objetivo de estas iniciativas es fomentar o impulsar el desarrollo ético de la IA. Pero esto presupone un comportamiento poco ético. ¿Cuál es la travesura en la IA?
IA poco ética
Un estudio identificó tres usos potencialmente maliciosos amplios de la IA. Estos apuntan:
Un área de preocupación está evolucionando en China, donde varias regiones están desarrollando un sistema de crédito social vinculado a la vigilancia masiva utilizando tecnologías de IA.
El sistema puede identificar a una persona que infringe las normas sociales (como cruzar imprudentemente, confraternizar con criminales, o uso indebido de las redes sociales) y debitar puntos de crédito social del individuo.
Cuando se reduce una puntuación de crédito, las libertades de esa persona (como la libertad de viajar o pedir dinero prestado) están restringidas. Si bien este aún no es un sistema nacional, los informes indican que este podría ser el objetivo final.
A estos usos indebidos deliberados de la IA se suman varios efectos secundarios involuntarios de una IA estrecha mal construida o implementada. Estos incluyen prejuicios y discriminación y la erosión de la confianza.
Construyendo consenso sobre la IA
Las sociedades difieren en lo que es ético. Incluso las personas dentro de las sociedades difieren en lo que consideran comportamiento ético. Entonces, ¿cómo puede haber un consenso global sobre el desarrollo ético de la IA?
Dado el alcance muy amplio del desarrollo de la IA, Cualquier política en relación con la IA ética no puede ser más específica hasta que podamos identificar normas compartidas de comportamiento ético que puedan formar la base de algunas reglas globales acordadas.
Desarrollando y expresando los valores, derechos y normas que consideramos importantes ahora en la forma de los informes y directrices descritos anteriormente, estamos trabajando para generar confianza entre las naciones.
Están surgiendo temas comunes en las distintas directrices, como la necesidad de una IA que considere los derechos humanos, seguridad, la seguridad, transparencia, confiabilidad y responsabilidad, por lo que es posible que aún estemos en camino hacia un consenso global.
Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.