• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • IBM:si la decisión de la IA necesita una mirada más cercana, mantente despierto, y así es como

    Crédito:CC0 Public Domain

    OK lo entendemos. La sensación de gee-genio de la inteligencia artificial, como se muestra en su gloria del desarrollo, está con nosotros y nos subimos a la ola de buena gana.

    Sin embargo, definitivamente se avecina una fase aleccionadora. Ahora que tenemos IA, que estamos haciendo con eso y estamos manejando, incluso evaluando, ¿Es mejor?

    "Como los jugadores de video que buscan el próximo truco, los empleados deberán monitorear, comprender, cuestionar y explotar las vulnerabilidades de sus herramientas y dar cuenta de ellas, "dijo John Sumser, analista principal en Examinador de recursos humanos .

    "Los empleados digitales son fundamentales para nuestro futuro, pero administrarlos es muy diferente a administrar personas o software antiguo ". Citado en Ejecutivo de recursos humanos :"... comprendemos que estamos en el comienzo de la creación y el uso de herramientas inteligentes, hay mucho trabajo por delante y tendremos que pensar en nuestras máquinas de manera diferente a partir de ahora ".

    Los partidarios de la IA para las decisiones que utilizan los gobiernos y las grandes organizaciones, después de todo, impactan nuestras vidas.

    La gran pregunta es ¿Quiénes y qué están entrenando a la IA para tomar decisiones? ¿Hay prejuicios en la fase de formación? Si es así, ¿Cómo puedo estar seguro de que el resultado es la decisión más justa?

    Largo y corto, Los investigadores de IBM han estado ocupados ideando formas de reducir el sesgo en los conjuntos de datos utilizados para entrenar la IA. ¿Qué están haciendo? ¿Debemos simplemente mirar otro libro blanco? Están haciendo más que eso.

    Están entregando un sistema de clasificación que puede clasificar la equidad relativa de un sistema de inteligencia artificial.

    La equidad no es solo algo que llamó la atención de IBM. Zoe Kleinman, reportero de tecnología, Noticias de la BBC, escribió, "Existe una creciente preocupación de que los algoritmos utilizados tanto por los gigantes tecnológicos como por otras empresas no siempre sean justos en la toma de decisiones".

    El arsenal de herramientas de tecnología de inteligencia artificial de IBM ahora incluye una forma de descubrir sesgos inconscientes en la toma de decisiones. Bias no siempre viene vestido con luces de neón y etiquetas con marcadores mágicos. La mitad del tiempo incluso estamos examinando nuestra propia capacidad para juzgar, sintiéndome incómodo con la otra mitad de nosotros que sospecha que la decisión fue manipulada con prejuicios. No cometer errores, aunque, nuestros rastreadores suelen ser correctos.

    "Se puede integrar cualquier número de predisposiciones en un algoritmo, ocultos en un conjunto de datos o de alguna manera concebidos durante la ejecución de un proyecto, "dijo Jack Murtha el miércoles en Noticias de análisis sanitario .

    IBM está haciendo las noticias relacionadas con la IA de esta semana.

    IBM ha anunciado un servicio de software que se ejecuta en IBM Cloud que puede detectar sesgos y explica cómo la IA toma decisiones, a medida que se toman las decisiones. Dijo Murtha.

    "Estamos brindando una nueva transparencia y control a las empresas que usan IA y enfrentan el mayor riesgo potencial de cualquier toma de decisiones defectuosa, "el director general de Watson AI en IBM, Beth Smith, fijado.

    "Los clientes podrán ver, a través de un tablero visual, cómo sus algoritmos toman decisiones y qué factores se utilizan para hacer las recomendaciones finales, "dijo Kleinman.

    El software basado en la nube de IBM será de código abierto, y trabajará con algunos marcos de uso común para construir algoritmos. Entonces, ¿qué hará realmente?

    Murtha lo desarrolló. (1) Hace ping "resultados injustos" en tiempo real y (2) recomienda datos que podrían mitigar el sesgo; (3) IBM también ofrece servicios de consultoría para limpiar la toma de decisiones a través de procesos comerciales más sólidos e interfaces de inteligencia artificial humana.

    La nueva contribución de IBM podría agregar una capa más para comprender y abordar el sesgo.

    La injusticia puede reflejarse en la falta de diversidad en las cantidades de datos en las que se entrenan los algoritmos.

    Un informe de la CNBC señaló que "la composición de la industria tecnológica que está creando esos algoritmos no era perfecta". Silicon Valley tiene una larga historia de críticas por su falta de diversidad ".

    Kay Firth-Butterfield, jefe de inteligencia artificial y aprendizaje automático en el Foro Económico Mundial, fue citado por CNBC.

    "Cuando hablamos de sesgo, nos preocupamos en primer lugar por el enfoque de las personas que están creando los algoritmos, ", Dijo Firth-Butterfield." Necesitamos hacer que la industria sea mucho más diversa en Occidente ".

    Un estudiante de posgrado en el Instituto de Tecnología de Massachusetts en 2016 descubrió que "el reconocimiento facial solo detectaba su rostro si usaba una máscara blanca, "dijo Kleinman.

    ¿Que sigue? "IBM Services trabajará con las empresas para ayudarlas a utilizar el nuevo servicio. IBM Research lanzará un conjunto de herramientas en la comunidad de código abierto, " dijo Buscando Alfa . ZDNet tenía más detalles para compartir sobre este conjunto de herramientas. IBM abrirá "herramientas de detección de sesgos" de IBM Research a través de un "kit de herramientas AI Fairness 360". Espere ver una biblioteca de algoritmos, código y tutoriales.

    ZDNet Larry Dignan:"La esperanza es que los académicos, los investigadores y los científicos de datos integrarán la detección de sesgos en sus modelos ".

    Aquellos que quieran profundizar más en este conjunto de herramientas pueden consultar las herramientas de IBM en Github.

    © 2018 Tech Xplore




    © Ciencia https://es.scienceaq.com