• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los nuevos principios de Google sobre inteligencia artificial deben mejorar la protección de los derechos humanos

    Existe una creciente preocupación por los riesgos potenciales de la inteligencia artificial, y crecientes críticas a los gigantes de la tecnología. A raíz de lo que se ha denominado una reacción violenta de la IA o "techlash", Los estados y las empresas se están dando cuenta del hecho de que el diseño y el desarrollo de la IA deben ser éticos, beneficiar a la sociedad y proteger los derechos humanos.

    En los últimos meses, Google se ha enfrentado a protestas de su propio personal contra el trabajo de inteligencia artificial de la empresa con el ejército de EE. UU. El Departamento de Defensa de EE. UU. Contrató a Google para desarrollar inteligencia artificial para analizar imágenes de drones en lo que se conoce como "Proyecto Maven".

    Se informó que un portavoz de Google dijo:"la reacción ha sido terrible para la empresa" y "nos corresponde a nosotros mostrar liderazgo". Se refirió a "planes para develar nuevos principios éticos". Estos principios ya se han publicado.

    Director ejecutivo de Google, Sundar Pichar, Reconoció que "esta área es dinámica y está evolucionando" y dijo que Google estaría dispuesto a "adaptar nuestro enfoque a medida que aprendamos con el tiempo". Esto es importante porque, mientras que los principios son un comienzo, Se necesita más trabajo y compromisos más concretos si Google va a ser eficaz en la protección de los derechos humanos.

    Los principios de Google sobre inteligencia artificial

    1. Sea socialmente beneficioso.
    2. Evite crear o reforzar prejuicios injustos.
    3. Estar construido y probado para su seguridad.
    4. Sea responsable ante la gente.
    5. Incorporar principios de diseño de privacidad.
    6. Mantener altos estándares de excelencia científica.
    7. Estar disponible para usos que estén de acuerdo con estos principios.

    Google también se compromete a no perseguir:

    1. Tecnologías que causan o pueden causar daños generales.
    2. Armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar directamente lesiones a las personas.
    3. Tecnologías que recopilan o utilizan información para la vigilancia, violar las normas internacionalmente aceptadas.
    4. Tecnologías cuyo propósito contraviene los principios ampliamente aceptados del derecho internacional y los derechos humanos.

    Pero hay pocos detalles sobre cómo lo hará realmente.

    Las aplicaciones de IA pueden causar una amplia gama de daños

    Los principios de Google reconocen el riesgo de sesgo de la IA y su amenaza a la privacidad. Esto es importante a la luz de los hallazgos de que los algoritmos de búsqueda de Google pueden reproducir estereotipos raciales y de género. Pero los principios no reconocen los riesgos más amplios para todos los derechos humanos y la necesidad de protegerlos. Por ejemplo, Los algoritmos sesgados no solo dan lugar a discriminación, sino que también pueden afectar el acceso a las oportunidades laborales.

    Aparte del motor de búsqueda, Las otras empresas de Google también podrían plantear problemas de derechos humanos. Google creó la empresa Jigsaw, que utiliza inteligencia artificial para seleccionar contenido en línea en un intento de abordar el lenguaje abusivo, amenazas y acoso online. Pero la moderación del contenido también puede representar una amenaza para el derecho a la libertad de expresión.

    Google Brain utiliza el aprendizaje automático para predecir los resultados de salud a partir de los registros médicos, y Google Cloud colaborará con Fitbit. Ambos ejemplos plantean problemas de privacidad y protección de datos. Nuestros colegas también han cuestionado si asociaciones como Google DeepMind y el NHS benefician o socavan las obligaciones de los estados de implementar un sistema de salud que "brinde igualdad de oportunidades para que las personas disfruten del más alto nivel posible de salud".

    ¿Qué debería hacer Google?

    El enfoque general de Google debe basarse en encontrar formas para que la IA sea beneficiosa para la sociedad sin violar los derechos humanos. Explicando su primer principio de ser "socialmente beneficioso, "Google dice que sólo" procedería cuando creamos que los posibles beneficios generales superan sustancialmente los riesgos y las desventajas previsibles ". Pero un enfoque que equilibre los riesgos con los beneficios no es compatible con los derechos humanos. Un estado o una empresa, como Google, No se puede desarrollar una IA que prometa beneficiar a algunas personas a expensas de los derechos humanos de unas pocas o de una comunidad en particular. Bastante, tiene que encontrar una manera de garantizar que AI no dañe los derechos humanos.

    Entonces, Google debe considerar completamente los efectos de la IA en los derechos humanos durante su desarrollo e implementación. Especialmente así, porque pueden surgir riesgos incluso si la tecnología no está diseñada para propósitos dañinos. Los estándares y normas internacionales de derechos humanos, incluidos los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos, cubren tanto el propósito como el efecto de las acciones de las empresas, incluido Google, sobre derechos humanos. Estas responsabilidades existentes deben reflejarse mucho más claramente en los principios de Google, particularmente sobre la acción positiva que Google tomará para proteger los daños a los derechos humanos, incluso si no es intencional.

    Ser responsable de cómo desarrolla e implementa la IA, Google necesita ir más allá del lenguaje tentativo actual sobre el fomento de arquitecturas de privacidad y garantizar "la dirección y el control humanos apropiados" sin explicar quién decide qué es apropiado y sobre qué base. Debe integrar los derechos humanos en el diseño de la IA e incorporar salvaguardas como evaluaciones de impacto sobre los derechos humanos y procesos de supervisión y revisión independientes en los principios.

    Los principios también deben detallar cómo se remediarán los daños a los derechos humanos y cómo las personas y grupos afectados pueden presentar una reclamación. que actualmente está ausente.

    ¿El camino a seguir?

    Lanzamiento de los principios, El director ejecutivo de Google, Sundar Pichar, reconoció que la forma en que se desarrolla y utiliza la IA tendrá "un impacto significativo en la sociedad durante muchos años". El papel pionero de Google en IA significa que la empresa, según Sundar, "Siento una profunda responsabilidad para hacer esto bien".

    Aunque los principios son un comienzo importante, necesitan mucho más desarrollo si queremos tener la seguridad de que nuestros derechos humanos estarán protegidos. El siguiente paso es que Google integre los derechos humanos, salvaguardias y procesos de rendición de cuentas a lo largo de su desarrollo de IA. Eso es lo que se necesita para "hacer esto bien".

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com