• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Construyendo IA éticamente alineada

    Crédito:CC0 Public Domain

    Cuantos más agentes de IA se implementen en escenarios con situaciones posiblemente inesperadas, cuanto más necesitan ser flexibles, adaptado, y creativo para lograr sus objetivos. Por lo tanto, Es necesario un cierto nivel de libertad para elegir el mejor camino hacia un objetivo específico para hacer que la IA sea lo suficientemente robusta y flexible como para ser implementada con éxito en escenarios de la vida real.

    Esto es especialmente cierto cuando los sistemas de inteligencia artificial abordan problemas difíciles cuya solución no puede definirse con precisión mediante un enfoque tradicional basado en reglas, pero requieren los enfoques basados ​​en datos y / o de aprendizaje que se utilizan cada vez más en la inteligencia artificial. En efecto, sistemas de inteligencia artificial basados ​​en datos, como los que utilizan el aprendizaje automático, tienen mucho éxito en términos de precisión y flexibilidad, y pueden ser muy "creativos" para resolver un problema, encontrar soluciones que puedan sorprender positivamente a los humanos y enseñarles formas innovadoras de resolver un desafío.

    Sin embargo, La creatividad y la libertad sin límites a veces pueden conducir a acciones no deseadas:el sistema de IA podría lograr su objetivo de formas que no se consideran aceptables de acuerdo con los valores y normas de la comunidad afectada. Por lo tanto, Existe una necesidad creciente de comprender cómo limitar las acciones de un sistema de IA proporcionando límites dentro de los cuales el sistema debe operar. Esto generalmente se conoce como el problema de "alineación de valores", ya que tales límites deberían modelar los valores y principios requeridos para el escenario de aplicación de IA específico.

    En IBM Research, Hemos estudiado y evaluado dos formas de alinear los sistemas de IA con los principios éticos:

    • El primero utiliza el mismo formalismo para modelar y combinar preferencias subjetivas (para lograr la personalización del servicio) y prioridades éticas (para lograr la alineación de valores). Se utiliza una noción de distancia entre preferencias y prioridades éticas para decidir si las acciones pueden ser determinadas solo por las preferencias o si necesitamos considerar prioridades éticas adicionales. cuando las preferencias son demasiado divergentes de estas prioridades.
    • El segundo emplea un enfoque de aprendizaje reforzado (dentro del entorno del problema de los bandidos) para maximizar la recompensa y aprende las pautas éticas a partir de ejemplos positivos y negativos. Probamos este enfoque en recomendaciones de películas con la orientación de los padres, así como la selección de la dosis del fármaco teniendo en cuenta la calidad de vida.

    El documento que describe nuestro enfoque general y las dos formas posibles de resolver el problema de alineación de valores se presentará en la próxima conferencia AAAI 2019 y recibirá el premio AAAI 2019 Blue Sky Idea. Se puede encontrar aquí.

    Este trabajo es parte de un esfuerzo a largo plazo para comprender cómo integrar los principios éticos en los sistemas de IA en colaboración con el MIT. Si bien la investigación realizada y modela las prioridades éticas como restricciones deontológicas, El equipo de IBM-MIT está recopilando datos de preferencias humanas para modelar cómo los humanos siguen, y cambiar entre, diferentes teorías éticas (como la utilitaria, deontológico y contractualista), para luego diseñar tanto teorías éticas como mecanismos de conmutación, convenientemente adaptado, en sistemas de IA. De este modo, Dichos sistemas podrán alinearse mejor con la forma en que las personas razonan y actúan sobre la ética al tomar decisiones, y, por lo tanto, estará mejor equipado para interactuar de forma natural y compacta con los humanos en un enfoque de inteligencia aumentada para la IA.

    Esta historia se vuelve a publicar por cortesía de IBM Research. Lea la historia original aquí.




    © Ciencia https://es.scienceaq.com