La inteligencia artificial debe desarrollarse con un marco ético. Crédito:Shutterstock / Alexander Supertramp
La cuestión de si la tecnología es buena o mala depende de cómo se desarrolle y utilice. En ninguna parte eso es más actual que en las tecnologías que utilizan inteligencia artificial.
Cuando se desarrolla y utiliza de forma adecuada, la inteligencia artificial (IA) tiene el potencial de transformar la forma en que vivimos, trabaja, comunicarse y viajar.
Se están desarrollando nuevas tecnologías médicas habilitadas por IA para mejorar la atención al paciente. Hay indicios convincentes de que los vehículos autónomos mejorarán la seguridad y reducirán el peaje de las carreteras. El aprendizaje automático y la automatización están agilizando los flujos de trabajo y nos permiten trabajar de manera más inteligente.
Alrededor del mundo, La tecnología habilitada por IA está siendo adoptada cada vez más por las personas, gobiernos organizaciones e instituciones. Pero junto con el vasto potencial para mejorar nuestra calidad de vida, supone un riesgo para nuestras libertades y derechos humanos básicos.
Supervisión adecuada, Se debe priorizar la orientación y la comprensión de la forma en que se utiliza y desarrolla la IA en Australia.
La IA enloquecida puede evocar imágenes de las películas de Terminator y Ex Machina, pero es mucho más sencillo, cuestiones fundamentales que deben abordarse en la actualidad, tal como:
Tenemos un plan de ética de IA
Es por eso, en asociación con el gobierno y la industria, hemos desarrollado un marco ético para la IA en Australia. El objetivo es catalizar el debate sobre cómo se debe utilizar y desarrollar la IA en Australia.
El marco ético analiza varios estudios de casos de todo el mundo para discutir cómo se ha utilizado la IA en el pasado y los impactos que ha tenido. Los estudios de casos nos ayudan a comprender dónde salieron mal las cosas y cómo evitar que se repitan los errores del pasado.
También analizamos lo que se estaba haciendo en todo el mundo para abordar las preocupaciones éticas sobre el desarrollo y el uso de la IA.
Basado en los problemas e impactos centrales de la IA, Se identificaron ocho principios para respaldar el uso ético y el desarrollo de la IA en Australia.
Además de los principios básicos, se identifican varios elementos del conjunto de herramientas en el marco que podrían usarse para ayudar a respaldar estos principios. Estos incluyen evaluaciones de impacto, seguimiento continuo y consulta pública.
Un plan, ¿qué pasa con la acción?
Pero los principios y las metas éticas solo pueden llegar hasta cierto punto. En algún momento tendremos que ponernos manos a la obra para decidir cómo vamos a implementarlos y lograrlos.
Hay varias complejidades a considerar al discutir el uso ético y el desarrollo de la IA. El vasto alcance de la tecnología tiene el potencial de impactar en todas las facetas de nuestras vidas.
Las aplicaciones de IA ya se utilizan en los hogares, empresas y gobiernos, la mayoría de los australianos ya están siendo afectados por ellos.
Existe una necesidad imperiosa de examinar los efectos que tiene la IA en las personas vulnerables y en los grupos minoritarios. asegurarnos de proteger a estas personas y comunidades de los prejuicios, discriminación y explotación. (Recuerda a Tay, el chatbot racista?)
También está el hecho de que la IA utilizada en Australia a menudo se desarrollará en otros países, Entonces, ¿cómo nos aseguramos de que se adhiera a los estándares y expectativas australianos?
Tu opinión
El marco explora estos problemas y constituye algunos de los primeros pasos de Australia en el viaje hacia el desarrollo y el uso positivos de la IA. Pero el verdadero progreso necesita el aporte de las partes interesadas de todo el gobierno, negocio, academia y sociedad en general.
Leer más:Cuidado con la forma en que trata la IA de hoy:podría vengarse en el futuro
Es por eso que el documento de discusión del marco ético ahora está abierto a comentarios públicos. Tienes hasta el 31 de mayo 2019, para opinar sobre el futuro digital de Australia.
Con un enfoque proactivo para el desarrollo ético de la IA, Australia puede hacer más que simplemente mitigar cualquier riesgo. Si podemos construir IA para un resultado más justo, podemos asegurar una ventaja competitiva y salvaguardar los derechos de los australianos.
Emma Schleiger, Investigador científico, CSIRO y Stefan Hajkowicz, Científico principal sénior, Estrategia y prospectiva, Datos61
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.