• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La mayoría de las personas pasan por alto la inteligencia artificial a pesar de los consejos impecables

    Un equipo de investigadores que incluye al Dr. James Schaffer, científico del Laboratorio de Investigación del Ejército de RDECOM, el laboratorio de investigación corporativa del Ejército (ARL) estacionado en ARL West en Playa Vista, California, Recientemente descubrió que la mayoría de las personas pasan por alto la inteligencia artificial a pesar de los consejos impecables. Los sistemas similares a la IA serán una parte integral de la estrategia del Ejército durante los próximos cinco años, por lo que los diseñadores de sistemas deberán comenzar a ser un poco más creativos para atraer a los usuarios. (Gráfico del Ejército de EE. UU. Por Jhi Scott) Crédito:Gráfico del Ejército de EE. UU. Por Jhi Scott

    Si estuvieras convencido de que conocías el camino a casa, ¿todavía encenderías tu GPS?

    Los científicos del ejército recientemente intentaron responder una pregunta similar debido a la preocupación constante de que la inteligencia artificial, que puede resultar opaco y frustrante para muchas personas, puede no ser útil en la toma de decisiones en el campo de batalla.

    "El Ejército de los Estados Unidos sigue impulsando la modernización de sus fuerzas, con esfuerzos notables que incluyen el desarrollo de software basado en teléfonos inteligentes para la entrega de información en tiempo real, como el kit de asalto táctico de Android, o ATAK, y la asignación de una financiación significativa para la investigación de nuevos métodos de aprendizaje automático e inteligencia artificial para ayudar al personal de mando y control, "dijo el Dr. James Schaffer, científico del Laboratorio de Investigación del Ejército de RDECOM, el laboratorio de investigación corporativa del Ejército (ARL), en ARL West en Playa Vista, California.

    Según Schaffer, a pesar de estos avances, todavía existe una brecha significativa en el conocimiento básico sobre el uso de la IA, y se desconoce qué factores de la IA ayudarán o no a los procesos de toma de decisiones militares.

    La investigación universitaria y corporativa ha avanzado significativamente en la resolución de este problema para aplicaciones como recomendaciones de películas y restaurantes, pero los hallazgos no se traducen exactamente al mundo militar.

    "Por ejemplo, muchos estudios de investigación y pruebas A / B, como las que realiza Amazon, han experimentado con diferentes formas de persuasión, estilos de argumentación e interfaz de usuario para determinar la combinación ganadora que mueve más producto o inspira más confianza, ", Dijo Schaffer." Desafortunadamente, hay grandes diferencias entre los supuestos en estos dominios de bajo riesgo y la práctica militar ".

    La investigación del Ejército, que fue una colaboración entre científicos del Ejército e investigadores universitarios de la Universidad de California, Santa Bárbara, plantea la hipótesis de que muchas personas confían en sus propias habilidades mucho más que en las de una computadora, lo que afectará su juicio cuando se les presione para que actúen.

    Según Schaffer, esto implica que incluso si se pudiera crear una IA impecable, algunas personas no escucharon los consejos de la IA.

    Los investigadores construyeron un resumen similar al Dilema del prisionero iterado, un juego en el que los jugadores deben elegir cooperar o desertar contra sus compañeros en cada ronda, para controlar todos los factores relevantes.

    El dilema del prisionero iterado se ha utilizado con respecto a varios problemas del mundo real, como las carreras de armas militares, intercambio público de recursos y política internacional.

    El equipo de investigación desarrolló una versión en línea del juego, donde los jugadores obtuvieron puntos tomando buenas decisiones en cada ronda.

    Se utilizó una IA para generar consejos en cada ronda, que se mostró junto con la interfaz del juego, e hizo una sugerencia sobre qué decisión debería tomar el jugador.

    Los investigadores tuvieron la oportunidad de diseñar una IA que siempre recomendaba el curso de acción óptimo.

    Sin embargo, Como en la vida real, los jugadores debían acceder manualmente a los consejos de la IA, al igual que debe encender manualmente el GPS, y fueron libres de aceptar o ignorar su sugerencia.

    Los investigadores también presentaron diferentes versiones de esta IA; algunas eran deliberadamente inexactas, Alguna información requerida del juego para ser ingresada manualmente, y algunos justificaron sus sugerencias con argumentos racionales.

    Todas las variaciones de estos tratamientos de IA se probaron para poder estudiar los efectos de interacción entre las configuraciones de IA.

    Se invitó a las personas a jugar el juego en línea y los investigadores recopilaron un perfil de cada jugador y monitorearon su comportamiento.

    Para cada jugador, Los investigadores preguntaron sobre su familiaridad con el juego y al mismo tiempo midieron su verdadera competencia.

    Adicionalmente, Se realizó una prueba a la mitad del juego que midió la conciencia de los elementos del juego.

    "Lo que se descubrió podría preocupar a algunos defensores de la IA. Dos tercios de las decisiones humanas no estuvieron de acuerdo con la IA, independientemente del número de errores en las sugerencias, "Dijo Schaffer.

    Cuanto mayor sea el nivel de familiaridad del jugador con el juego de antemano, cuanto menos se utilizó la IA, un efecto que todavía se observaba al controlar la precisión de la IA. Esto implica que mejorar la precisión de un sistema no podrá aumentar la adopción del sistema en esta población.

    "Este podría ser un resultado inofensivo si estos jugadores realmente lo estuvieran haciendo mejor, pero de hecho lo estaban haciendo significativamente peor que sus compañeros más humildes". que informó saber menos sobre el juego de antemano, ", Dijo Schaffer." Cuando la IA intentó justificar sus sugerencias a los jugadores que informaron estar muy familiarizados con el juego, Se observó que la reducción de la conciencia de los elementos del juego era un síntoma de exceso de confianza y complacencia ".

    A pesar de estos hallazgos, no se observó un aumento correspondiente en la concordancia con las sugerencias de AI.

    Esto presenta un problema para los diseñadores de sistemas:los usuarios incompetentes necesitan la IA sobre todo, pero son los menos propensos a dejarse influir por justificaciones racionales, Dijo Schaffer.

    Los usuarios incompetentes también eran los más propensos a decir que confiaban en la IA, que se estudió a través de un cuestionario posterior al juego.

    "Esto contrasta marcadamente con su observada negligencia de las sugerencias de la IA, demostrando que la gente no siempre es honesta, o puede que no siempre sea consciente de su propio comportamiento, "Dijo Schaffer.

    Para Schaffer y el equipo, esta investigación destaca problemas en curso en la usabilidad de complejos, sistemas opacos como la IA, a pesar de los continuos avances en precisión, robustez y rapidez.

    "Se ha demostrado que los argumentos racionales son ineficaces en algunas personas, por lo que los diseñadores pueden necesitar ser más creativos al diseñar interfaces para estos sistemas, "Dijo Schaffer.

    Schaffer dijo que esto podría lograrse apelando a las emociones o la competitividad, o incluso eliminando la presencia de la IA, de tal manera que los usuarios no registran su presencia y por lo tanto no se anclan en sus propias capacidades.

    "A pesar de los desafíos en la interacción humano-computadora, Los sistemas similares a la IA serán una parte integral de la estrategia del Ejército durante los próximos cinco años, ", Dijo Schaffer." Uno de los principales desafíos que enfrentan las operaciones militares en la actualidad es la respuesta rápida de los adversarios de la guerrilla, que a menudo tienen cadenas de mando más cortas y, por lo tanto, pueden actuar y reaccionar más rápidamente que las Fuerzas Armadas de EE. UU. Los sistemas complejos que pueden reaccionar rápidamente a un entorno cambiante y acelerar el flujo de información pueden mejorar los tiempos de respuesta y ayudar a mantener el ritmo de operación, pero solo si sus usuarios tienen la suficiente confianza ".

    El grupo de investigación continúa experimentando con diferentes interfaces para sistemas de IA para que todo tipo de personas puedan beneficiarse de un conocimiento automatizado cada vez más efectivo.

    Esta investigación aparecerá en las actas de la conferencia de ACM de 2019 sobre interfaces de usuario inteligentes (iui.acm.org/2019/).


    © Ciencia https://es.scienceaq.com