• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Informe de los perros guardianes de la inteligencia artificial destroza la tecnología de las emociones

    Crédito:CC0 Public Domain

    La opinión de que el reconocimiento de los afectos debería ser excluido de las decisiones importantes suena como un grito de ira ... pero ¿qué significa todo esto? Hablar se calienta actualmente, sobre el impacto de la inteligencia artificial en nuestra vida diaria de formas que causan tantas preocupaciones como asombro.

    "Afecta el reconocimiento". En el lenguaje tecnológico representa un subconjunto del reconocimiento facial. El reconocimiento de afectos tiene que ver con la IA emocional, y se trata de la inteligencia artificial que se utiliza para analizar expresiones con el objetivo de identificar la emoción humana.

    ¿Interpretando las expresiones de tu rostro? ¿Qué tan sólidas son esas interpretaciones?

    En un centro de investigación de la Universidad de Nueva York, un informe recuerda a sus lectores que esta no es la mejor manera de comprender cómo se siente la gente. La opinión del informe es que, simple y llanamente, No se debe suponer fácilmente que la IA que detecta emociones sea capaz de realizar llamadas importantes en situaciones que pueden tener un impacto grave en las personas:en el reclutamiento, en el seguimiento de los estudiantes en el aula, en atención al cliente y por último, pero no menos importante, en justicia penal.

    Era necesario analizar por qué las entidades están utilizando tecnología defectuosa para realizar evaluaciones sobre el carácter sobre la base de la apariencia física en primer lugar. Esto es particularmente preocupante en contextos como el empleo, educación, y justicia penal.

    El AI Now Institute de la Universidad de Nueva York emitió el Informe AI Now 2019 . El centro de atención del instituto está en las implicaciones sociales de la inteligencia artificial. El instituto señala que los sistemas de inteligencia artificial deben tener las salvaguardias adecuadas o las estructuras de rendición de cuentas establecidas, y el instituto manifiesta su preocupación cuando este no sea el caso.

    Su informe de 2019 analiza el uso comercial del análisis de expresiones tal como se encuentra actualmente en la toma de decisiones.

    Reuters señaló que este era el cuarto informe anual de AI Now sobre herramientas de inteligencia artificial. La evaluación examina los riesgos de la tecnología de IA potencialmente dañina y su impacto humano.

    Volviendo al informe del Instituto, el reconocimiento del afecto ha sido "un foco particular de creciente preocupación en 2019, no solo porque puede codificar sesgos, sino porque carece de una base científica sólida para garantizar resultados precisos o incluso válidos ".

    El informe tenía una redacción contundente:"Los reguladores deben prohibir el uso del reconocimiento del afecto en las decisiones importantes que afectan la vida de las personas y el acceso a las oportunidades. Hasta entonces, Las empresas de inteligencia artificial deberían dejar de implementarlo ".

    Los autores no solo se entregan a lo personal; opinión; revisaron la investigación.

    "Dados los fundamentos científicos controvertidos de la tecnología de reconocimiento de afectos, una subclase de reconocimiento facial que pretende detectar cosas como la personalidad, emociones, salud mental, y otros estados del interior:no se le debe permitir que juegue un papel en las decisiones importantes sobre la vida humana, como quién es entrevistado o contratado para un trabajo, el precio del seguro, evaluaciones del dolor del paciente, o el desempeño de los estudiantes en la escuela ".

    El informe fue aún más lejos y dijo que los gobiernos deberían "prohibir específicamente el uso del reconocimiento del afecto en los procesos de toma de decisiones de alto riesgo".

    El borde James Vincent no se sorprendería por este hallazgo. En julio informó sobre una investigación que analizó las fallas de la tecnología para leer con precisión las emociones a través de expresiones faciales; simplemente pon, no se puede confiar en que la IA lo haga. Citó a un profesor de psicología de la Northeastern University. "Las empresas pueden decir lo que quieran, pero los datos son claros ".

    Vincent informó en ese entonces sobre una revisión de la literatura encargada por la Asociación de Ciencias Psicológicas, y cinco científicos examinaron la evidencia:"Expresiones emocionales reconsideradas:desafíos para inferir emoción de los movimientos faciales humanos". Vincent dijo:"Les tomó dos años examinar los datos, con la revisión en más de 1, 000 estudios diferentes ".

    Dado que las emociones se expresan de una gran variedad de formas, Es difícil inferir de manera confiable cómo se siente alguien a partir de un simple conjunto de movimientos faciales. Los autores dijeron que las empresas de tecnología pueden estar haciendo una pregunta fundamentalmente incorrecta. Los esfuerzos para leer los estados internos de las personas a partir de los movimientos faciales sin considerar varios aspectos del contexto fueron, en el mejor de los casos, incompletos y, en el peor, carecieron de validez.

    Si bien el informe pedía una prohibición, Podría ser justo considerar que la preocupación es contra el nivel ingenuo de confianza en una tecnología que aún necesita mejoras. El campo del análisis emocional necesita mejorar.

    De acuerdo a El borde artículo, un profesor de psicología de la Northeastern University creía que quizás la conclusión más importante de la revisión era que "tenemos que pensar en las emociones de una manera más compleja".

    Leo Kelton, Noticias de la BBC, mientras tanto, transmitió el punto de vista de la cofundadora de AI Now, la profesora Kate Crawford, quienes dijeron que los estudios habían demostrado una variabilidad considerable en términos de la cantidad de estados emocionales y la forma en que las personas los expresaban.

    Reuters informó sobre su conferencia telefónica antes de la publicación del informe:"Las fundadoras de AI Now, Kate Crawford y Meredith Whittaker, dijeron que los usos dañinos de la inteligencia artificial se están multiplicando a pesar del amplio consenso sobre los principios éticos porque no hay consecuencias por violarlos". El informe actual dijo que el reconocimiento de afecto habilitado por IA continuó implementándose a escala en todos los entornos, desde las aulas hasta las entrevistas de trabajo. Informaba determinaciones sobre quién es productivo pero a menudo sin el conocimiento de la gente.

    El informe AI Now incluyó ejemplos específicos de empresas que hacen negocios con productos de detección de emociones. Una de esas empresas está vendiendo cámaras de análisis de video que clasifican las caras como que sienten enojo, temor, y tristeza, vendido a casinos, restaurantes, comerciantes minoristas, corredores de bienes raíces, y la industria hotelera, .

    Otro ejemplo fue una empresa con herramientas basadas en vídeo impulsadas por IA para recomendar a qué candidatos debería entrevistar una empresa. Los algoritmos se diseñaron para detectar el compromiso emocional en las microexpresiones de los solicitantes.

    El informe incluyó a una empresa que creaba cintas para la cabeza que pretenden detectar y cuantificar los niveles de atención de los estudiantes a través de la detección de actividad cerebral. (El informe de IA no ignoró agregar que los estudios "describen los riesgos significativos asociados con el despliegue de la IA emocional en el aula").

    © 2019 Science X Network




    © Ciencia https://es.scienceaq.com