• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La inteligencia artificial en Australia debe ser ética, entonces tenemos un plan

    La inteligencia artificial debe desarrollarse con un marco ético. Crédito:Shutterstock / Alexander Supertramp

    La cuestión de si la tecnología es buena o mala depende de cómo se desarrolle y utilice. En ninguna parte eso es más actual que en las tecnologías que utilizan inteligencia artificial.

    Cuando se desarrolla y utiliza de forma adecuada, la inteligencia artificial (IA) tiene el potencial de transformar la forma en que vivimos, trabaja, comunicarse y viajar.

    Se están desarrollando nuevas tecnologías médicas habilitadas por IA para mejorar la atención al paciente. Hay indicios convincentes de que los vehículos autónomos mejorarán la seguridad y reducirán el peaje de las carreteras. El aprendizaje automático y la automatización están agilizando los flujos de trabajo y nos permiten trabajar de manera más inteligente.

    Alrededor del mundo, La tecnología habilitada por IA está siendo adoptada cada vez más por las personas, gobiernos organizaciones e instituciones. Pero junto con el vasto potencial para mejorar nuestra calidad de vida, supone un riesgo para nuestras libertades y derechos humanos básicos.

    Supervisión adecuada, Se debe priorizar la orientación y la comprensión de la forma en que se utiliza y desarrolla la IA en Australia.

    La IA enloquecida puede evocar imágenes de las películas de Terminator y Ex Machina, pero es mucho más sencillo, cuestiones fundamentales que deben abordarse en la actualidad, tal como:

    • cómo se utilizan los datos para desarrollar la IA
    • si un sistema de inteligencia artificial se está utilizando de manera justa
    • ¿En qué situaciones debemos seguir confiando en la toma de decisiones humana?

    Tenemos un plan de ética de IA

    Es por eso, en asociación con el gobierno y la industria, hemos desarrollado un marco ético para la IA en Australia. El objetivo es catalizar el debate sobre cómo se debe utilizar y desarrollar la IA en Australia.

    El marco ético analiza varios estudios de casos de todo el mundo para discutir cómo se ha utilizado la IA en el pasado y los impactos que ha tenido. Los estudios de casos nos ayudan a comprender dónde salieron mal las cosas y cómo evitar que se repitan los errores del pasado.

    También analizamos lo que se estaba haciendo en todo el mundo para abordar las preocupaciones éticas sobre el desarrollo y el uso de la IA.

    Basado en los problemas e impactos centrales de la IA, Se identificaron ocho principios para respaldar el uso ético y el desarrollo de la IA en Australia.

    1. Genera beneficios netos: El sistema de IA debe generar beneficios para las personas que superen los costos.
    2. No hagas daño: Los sistemas civiles de inteligencia artificial no deben diseñarse para dañar o engañar a las personas y deben implementarse de manera que se minimicen los resultados negativos.
    3. Cumplimiento normativo y legal: El sistema de IA debe cumplir con todas las normas internacionales, Australiano local, obligaciones del gobierno estatal / territorial y federal, regulaciones y leyes.
    4. Protección de la privacidad: Cualquier sistema, incluidos los sistemas de inteligencia artificial, debe garantizar que los datos privados de las personas estén protegidos y se mantengan confidenciales y evitar las violaciones de datos que podrían causar problemas de reputación, psicológico, financiero, daños profesionales o de otro tipo.
    5. Justicia: El desarrollo o uso del sistema de inteligencia artificial no debe dar lugar a una discriminación injusta contra las personas. comunidades o grupos. Esto requiere una atención especial para garantizar que los "datos de entrenamiento" estén libres de sesgos o características que puedan hacer que el algoritmo se comporte de manera injusta.
    6. Transparencia y explicabilidad: Las personas deben estar informadas cuando se utiliza un algoritmo que las afecta y se les debe proporcionar información sobre qué información utiliza el algoritmo para tomar decisiones.
    7. Contestabilidad: Cuando un algoritmo impacta a una persona, debe haber un proceso eficiente que le permita a esa persona desafiar el uso o la salida del algoritmo.
    8. Responsabilidad: Las personas y organizaciones responsables de la creación e implementación de algoritmos de IA deben ser identificables y responsables de los impactos de ese algoritmo, incluso si los impactos no son intencionados.

    Además de los principios básicos, se identifican varios elementos del conjunto de herramientas en el marco que podrían usarse para ayudar a respaldar estos principios. Estos incluyen evaluaciones de impacto, seguimiento continuo y consulta pública.

    Un plan, ¿qué pasa con la acción?

    Pero los principios y las metas éticas solo pueden llegar hasta cierto punto. En algún momento tendremos que ponernos manos a la obra para decidir cómo vamos a implementarlos y lograrlos.

    Hay varias complejidades a considerar al discutir el uso ético y el desarrollo de la IA. El vasto alcance de la tecnología tiene el potencial de impactar en todas las facetas de nuestras vidas.

    Las aplicaciones de IA ya se utilizan en los hogares, empresas y gobiernos, la mayoría de los australianos ya están siendo afectados por ellos.

    Existe una necesidad imperiosa de examinar los efectos que tiene la IA en las personas vulnerables y en los grupos minoritarios. asegurarnos de proteger a estas personas y comunidades de los prejuicios, discriminación y explotación. (Recuerda a Tay, el chatbot racista?)

    También está el hecho de que la IA utilizada en Australia a menudo se desarrollará en otros países, Entonces, ¿cómo nos aseguramos de que se adhiera a los estándares y expectativas australianos?

    Tu opinión

    El marco explora estos problemas y constituye algunos de los primeros pasos de Australia en el viaje hacia el desarrollo y el uso positivos de la IA. Pero el verdadero progreso necesita el aporte de las partes interesadas de todo el gobierno, negocio, academia y sociedad en general.

    Leer más:Cuidado con la forma en que trata la IA de hoy:podría vengarse en el futuro

    Es por eso que el documento de discusión del marco ético ahora está abierto a comentarios públicos. Tienes hasta el 31 de mayo 2019, para opinar sobre el futuro digital de Australia.

    Con un enfoque proactivo para el desarrollo ético de la IA, Australia puede hacer más que simplemente mitigar cualquier riesgo. Si podemos construir IA para un resultado más justo, podemos asegurar una ventaja competitiva y salvaguardar los derechos de los australianos.

    Emma Schleiger, Investigador científico, CSIRO y Stefan Hajkowicz, Científico principal sénior, Estrategia y prospectiva, Datos61

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com