• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Mejorar la calidad de la IA requiere ir más allá de lo cuantitativo

    Crédito:CC0 Public Domain

    Los ingenieros de inteligencia artificial deben obtener ideas y experiencia de una amplia gama de disciplinas de las ciencias sociales, incluidos los que adoptan métodos cualitativos, con el fin de reducir el daño potencial de sus creaciones y servir mejor a la sociedad en su conjunto, un par de investigadores ha concluido en un análisis que aparece en la revista Inteligencia de la máquina de la naturaleza .

    "Existe una creciente evidencia de que la IA puede exacerbar la desigualdad, perpetuar la discriminación, e infligir daño, "escribe Mona Sloane, investigador del Instituto de Conocimiento Público de la Universidad de Nueva York, y Emanuel Moss, un candidato a doctorado en la City University of New York. "Para lograr una tecnología socialmente justa, Necesitamos incluir la noción más amplia posible de ciencia social, uno que incluye disciplinas que han desarrollado métodos para lidiar con la inmensidad del mundo social y que nos ayuda a comprender cómo y por qué los daños de la IA surgen como parte de una gran, complejo, y sistema tecno-social emergente ".

    Los autores describen las razones por las que se acercan las ciencias sociales, y sus muchos métodos cualitativos, puede mejorar ampliamente el valor de la IA y, al mismo tiempo, evitar errores documentados. Los estudios han demostrado que los motores de búsqueda pueden discriminar a las mujeres de color, mientras que muchos analistas han planteado preguntas sobre cómo los autos autónomos tomarán decisiones socialmente aceptables en situaciones de choque (por ejemplo, evitando a los humanos en lugar de las bocas de incendio).

    Sloane, también miembro adjunto de la facultad en la Escuela de Ingeniería Tandon de NYU, y Moss reconocen que los ingenieros de inteligencia artificial actualmente buscan inculcar la "alineación de valores", la idea de que las máquinas deben actuar de acuerdo con los valores humanos, en sus creaciones, pero agregue que "es excepcionalmente difícil definir y codificar algo tan fluido y contextual como 'valores humanos' en una máquina".

    Para abordar esta deficiencia, los autores ofrecen un plan para la inclusión de las ciencias sociales en la IA a través de una serie de recomendaciones:

    • La investigación social cualitativa puede ayudar a comprender las categorías a través de las cuales damos sentido a la vida social y que se utilizan en la IA. "Por ejemplo, los tecnólogos no están capacitados para comprender cómo se reproducen las categorías raciales en el aprendizaje automático como una construcción social que tiene efectos en la vida real en la organización y estratificación de la sociedad, Sloane y Moss observan. Pero estas cuestiones se discuten en profundidad en las ciencias sociales, lo que puede ayudar a crear el trasfondo socio-histórico contra el cual la ... historia de adscripción de categorías como 'raza' puede hacerse explícita ".
    • Un enfoque de recopilación de datos cualitativos puede establecer protocolos para ayudar a disminuir el sesgo. "Los datos siempre reflejan los prejuicios e intereses de quienes realizan la recopilación, ", señalan los autores." La investigación cualitativa es explícita sobre la recopilación de datos, mientras que las prácticas de investigación cuantitativa en IA no lo son ".
    • La investigación cualitativa generalmente requiere que los investigadores reflexionen sobre cómo sus intervenciones afectan el mundo en el que hacen sus observaciones. "Un enfoque cuantitativo no requiere que el investigador o el diseñador de IA se ubiquen en el mundo social, "escriben". Por lo tanto, no requiere una evaluación de quién está incluido en la decisión vital de diseño de IA, y quien no lo es ".

    "A medida que avanzamos en el tejido social, cultural, y elementos tecnológicos de nuestras vidas, debemos integrar diferentes tipos de conocimiento en el desarrollo tecnológico, "Sloane y Moss concluyen." Un futuro socialmente más justo y democrático para la IA en la sociedad no puede simplemente calcularse o diseñarse; debe ser vivido, narrado, y extraído de conocimientos profundos sobre la sociedad ".


    © Ciencia https://es.scienceaq.com