• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    La investigación explora la promoción de la confianza pública en la IA

    Crédito:Pixabay / CC0 Public Domain

    El público no necesita saber cómo funciona la Inteligencia Artificial para confiar en ella. Solo necesitan saber que alguien con las habilidades necesarias está examinando la IA y tiene la autoridad para imponer sanciones si causa o es probable que cause daño.

    Dr. Bran Knowles, profesor titular de ciencia de datos en la Universidad de Lancaster, dice:"Estoy seguro de que el público es incapaz de determinar la confiabilidad de las IA individuales ... pero no los necesitamos para hacer esto. No es su responsabilidad mantener la IA honesta".

    Hoy (8 de marzo), el Dr. Knowles presenta un artículo de investigación "La sanción de la autoridad:promoción de la confianza pública en la IA" en la Conferencia ACM sobre equidad, Rendición de cuentas y transparencia (ACM FAccT).

    El artículo es coautor de John T. Richards, de T.J. de IBM Centro de Investigación Watson, Yorktown Heights, Nueva York.

    El público en general es, las notas de papel, a menudo desconfía de la IA, lo que se deriva tanto de la forma en que se ha representado la IA a lo largo de los años como de la creciente conciencia de que hay poca supervisión significativa de la misma.

    Los autores argumentan que una mayor transparencia y explicaciones más accesibles de cómo funcionan los sistemas de IA, percibido como un medio para aumentar la confianza, no aborde las preocupaciones del público.

    Un 'ecosistema regulatorio, " ellos dicen, es la única forma en que AI será responsable de manera significativa ante el público, ganándose su confianza.

    "El público no se preocupa habitualmente por la confiabilidad de los alimentos, aviación, y farmacéuticos porque confían en que existe un sistema que regule estas cosas y sancione cualquier incumplimiento de los protocolos de seguridad, "dice el Dr. Richards.

    Y, agrega el Dr. Knowles:"En lugar de pedirle al público que adquiera habilidades para tomar decisiones informadas sobre qué IA merecen su confianza, el público necesita las mismas garantías de que cualquier IA que pueda encontrar no les hará daño ".

    Ella enfatiza el papel fundamental de la documentación de IA para habilitar este ecosistema regulatorio confiable. Como ejemplo, el documento analiza el trabajo de IBM en fichas de datos de IA, documentación diseñada para capturar hechos clave sobre el desarrollo y las pruebas de una IA.

    Pero, Si bien dicha documentación puede proporcionar la información que necesitan los auditores internos y los reguladores externos para evaluar el cumplimiento de los marcos emergentes para una IA confiable, El Dr. Knowles advierte contra depender de él para fomentar directamente la confianza pública.

    "Si no reconocemos que la carga de supervisar la confiabilidad de la IA debe recaer en reguladores altamente capacitados, entonces hay una buena posibilidad de que el futuro de la documentación de IA sea otro mecanismo de consentimiento al estilo de términos y condiciones, algo que nadie realmente lee o entiende, " ella dice.

    El documento pide que la documentación de la IA se entienda correctamente como un medio para capacitar a los especialistas para evaluar la confiabilidad.

    "La IA tiene consecuencias materiales en nuestro mundo que afectan a personas reales; y necesitamos una responsabilidad genuina para garantizar que la IA que impregna nuestro mundo esté ayudando a mejorar ese mundo, "dice el Dr. Knowles.


    © Ciencia https://es.scienceaq.com