• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Una nueva idea matemática frena el sesgo de la IA hacia la toma de decisiones comerciales poco éticas y costosas

    Crédito:CC0 Public Domain

    Investigadores de la Universidad de Warwick, Colegio Imperial de Londres, EPFL (Lausana) y Sciteb Ltd han encontrado un medio matemático para ayudar a los reguladores y las empresas a gestionar y vigilar los sesgos de los sistemas de inteligencia artificial para hacer que los sistemas de inteligencia artificial no sean éticos. y opciones comerciales potencialmente muy costosas y perjudiciales:una mirada ética a la IA.

    La inteligencia artificial (IA) se implementa cada vez más en situaciones comerciales. Considere, por ejemplo, el uso de IA para establecer precios de productos de seguros que se venderán a un cliente en particular. Existen razones legítimas para establecer precios diferentes para diferentes personas, pero también puede ser rentable "jugar" su psicología o su voluntad de comparar precios.

    La IA tiene una gran cantidad de estrategias potenciales para elegir, pero algunos son poco éticos y no solo incurrirán en un costo moral sino en una posible penalización económica potencial, ya que las partes interesadas aplicarán alguna penalización si descubren que se ha utilizado dicha estrategia; los reguladores pueden imponer multas significativas de miles de millones de dólares, Libras o euros y los clientes pueden boicotearlo, o ambos.

    Entonces, en un entorno en el que las decisiones se toman cada vez más sin intervención humana, Por lo tanto, existe un incentivo muy fuerte para saber bajo qué circunstancias los sistemas de IA podrían adoptar una estrategia poco ética y reducir ese riesgo o eliminarlo por completo si es posible.

    Matemáticos y estadísticos de la Universidad de Warwick, Imperial, EPFL y Sciteb Ltd se han unido para ayudar a las empresas y los reguladores a crear un nuevo "Principio de optimización poco ético" y proporcionar una fórmula simple para estimar su impacto. Han presentado todos los detalles en un documento con el nombre "Un principio de optimización poco ético", publicado en Ciencia Abierta de la Royal Society el miércoles 1 de julio de 2020.

    Los cuatro autores del artículo son Nicholas Beale de Sciteb Ltd; Heather Battey del Departamento de Matemáticas, Colegio Imperial de Londres; Anthony C. Davison del Instituto de Matemáticas, Ecole Polytechnique Fédérale de Lausanne; y el profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick.

    El profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick dijo:

    "Nuestro 'Principio de optimización poco ético' sugerido se puede utilizar para ayudar a los reguladores, personal de cumplimiento y otros para encontrar estrategias problemáticas que podrían estar ocultas en un gran espacio de estrategia. Se puede esperar que la optimización elija de manera desproporcionada muchas estrategias poco éticas, La inspección de cuál debe mostrar dónde es probable que surjan problemas y, por lo tanto, sugerir cómo se debe modificar el algoritmo de búsqueda de IA para evitarlos en el futuro.

    "El Principio también sugiere que puede ser necesario repensar la forma en que la IA opera en espacios estratégicos muy grandes, de modo que los resultados no éticos se rechacen explícitamente en el proceso de optimización / aprendizaje ".


    © Ciencia https://es.scienceaq.com