• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Accenture lanzará una nueva herramienta para ayudar a los clientes a identificar y corregir sesgos injustos en los algoritmos de IA

    Crédito:CC0 Public Domain

    Accenture, una empresa de servicios profesionales, pronto lanzará una nueva herramienta destinada a ayudar a sus clientes a encontrar sesgos injustos en los algoritmos de IA. Una vez que se descubre ese sesgo injusto, representantes de la empresa han dicho a la prensa, se pueden quitar.

    A medida que los científicos e ingenieros continúan mejorando la tecnología de IA, más empresas están utilizando herramientas basadas en inteligencia artificial para realizar negocios. El uso de aplicaciones de inteligencia artificial para procesar solicitudes de crédito se está convirtiendo en una rutina, por ejemplo. Pero ha existido la preocupación de que tales aplicaciones puedan tener sesgos incorporados, que producen resultados que podrían interpretarse como injustos. Tales aplicaciones podrían, por ejemplo, tener un prejuicio racial o de género arraigado, lo que podría sesgar los resultados. En respuesta a tales afirmaciones, muchas grandes corporaciones han comenzado a agregar filtros de sesgos a su conjunto de aplicaciones. Pero como han señalado los representantes de Accenture, Es probable que las empresas más pequeñas no tengan los recursos para hacerlo. La nueva herramienta que han desarrollado se comercializará pensando en estas empresas.

    Un prototipo de la nueva herramienta (que algunos han comenzado a llamar la Herramienta de Equidad) se está probando actualmente en el campo con un socio desconocido en aplicaciones de riesgo crediticio. La compañía ha anunciado que está planeando un lanzamiento suave en un futuro próximo. También han anunciado que la herramienta será parte de un programa más amplio ofrecido por la compañía llamado AI Launchpad. Además de las herramientas de IA, el programa también incluye capacitación en ética y responsabilidad para los empleados.

    Para averiguar qué tipo de datos que utiliza una aplicación de inteligencia artificial podrían representar un sesgo, la herramienta utiliza métodos estadísticos diseñados para comparar variables predefinidas como justas o injustas. También examinará otras variables que podrían contener sesgos ocultos. Datos que incluyen ingresos, por ejemplo, podría estar representando un sesgo oculto contra las mujeres o las minorías, incluso si no hay datos que especifiquen género o raza. La herramienta también se puede utilizar para implementar cambios en el algoritmo de un cliente, con suerte, haciéndolo menos sesgado. Pero los representantes de Accenture señalan que, al hacerlo, se ha descubierto que algunos algoritmos son menos precisos en general.

    © 2018 Tech Xplore




    © Ciencia https://es.scienceaq.com