Después de Uber, Incidentes de Tesla, ¿Se puede confiar en la inteligencia artificial?
Crédito:Universidad de Ciencia y Tecnología de Missouri
Dada la opción de viajar en un Uber conducido por un ser humano o en una versión autónoma, ¿Cuál escogerías?
Teniendo en cuenta el accidente fatal del mes pasado de un Uber autónomo que se cobró la vida de una mujer en Tempe, Arizona, y la reciente muerte de un piloto de pruebas de un vehículo semiautónomo desarrollado por Tesla, La confianza de la gente en la tecnología detrás de los vehículos autónomos también puede haberse visto afectada. La fiabilidad de los coches autónomos y otras formas de inteligencia artificial es uno de los varios factores que afectan la confianza de los seres humanos en la IA. aprendizaje automático y otros avances tecnológicos, escriben dos investigadores de la Universidad de Ciencia y Tecnología de Missouri en un artículo de revista reciente.
"La confianza es la piedra angular de la relación de la humanidad con la inteligencia artificial, "escribe al Dr. Keng Siau, profesor y presidente de negocios y tecnología de la información en Missouri S&T, y Weiyu Wang, un estudiante graduado de Missouri S&T en ciencia y tecnología de la información. "Como cualquier tipo de confianza, la confianza en la IA requiere tiempo para construirse, segundos para romperse y para siempre para reparar una vez que se rompe ".
Los incidentes de Uber y Tesla apuntan a la necesidad de repensar la forma en que se desarrollan las aplicaciones de inteligencia artificial, como los sistemas de conducción autónoma. y que los diseñadores y fabricantes de estos sistemas tomen ciertas medidas para generar una mayor confianza en sus productos, Dice Siau.
A pesar de estos incidentes recientes, Siau ve un futuro sólido para la IA, pero uno plagado de problemas de confianza que deben resolverse.
'Un proceso dinámico'
"La creación de confianza es un proceso dinámico, que implica el movimiento de la confianza inicial al desarrollo continuo de la confianza, "Siau y Wang escriben en" Fomento de la confianza en la inteligencia artificial, Aprendizaje automático, y robótica, "publicado en la edición de febrero de 2018 de Cutter Business Technology Journal.
En su artículo, Siau y Wang examinan los conceptos predominantes de confianza en general y en el contexto de las aplicaciones de inteligencia artificial y la interacción persona-computadora. Discuten los tres tipos de características que determinan la confianza en esta área:humana, medio ambiente y tecnología, y delinear formas de generar confianza en las aplicaciones de IA.
Siau y Wang señalan cinco áreas que pueden ayudar a generar confianza inicial en los sistemas de inteligencia artificial:
- Representación. Cuanto más "humana" es una tecnología, es más probable que los humanos confíen en él. "Por eso los robots humanoides son tan populares, "Siau dice, agregando que es más fácil "establecer una conexión emocional" con un robot que se ve y actúa más como un humano o un perro robótico que actúa más como un canino. Quizás los vehículos autónomos de primera generación deberían tener un "chofer" humanoide detrás del volante para ayudar a aliviar las preocupaciones.
- Imagen o percepción. Los libros y las películas de ciencia ficción le han dado a la IA una mala imagen, Dice Siau. La gente tiende a pensar en la IA en términos distópicos, coloreado por las películas de Terminator o Bladerunner o las novelas de Isaac Asimov y Philip K. Dick. "Esta imagen y percepción afectarán la confianza inicial de las personas en la IA, "Siau y Wang escriben.
- Reseñas de otros usuarios. Las personas tienden a confiar en las reseñas de productos en línea, y "una revisión positiva conduce a una mayor confianza inicial".
- Transparencia y "explicabilidad". Cuando el funcionamiento interno de una tecnología se oculta en una "caja negra, "esa opacidad puede obstaculizar la confianza". Para confiar en las aplicaciones de IA, necesitamos entender cómo se programan y qué función se realizará en determinadas condiciones, "Dice Siau.
- Trialability. La capacidad de probar una nueva aplicación de IA antes de que se le pida que la adapte conduce a una mayor aceptación. Dice Siau.
Cómo mantener la confianza en la IA
Más allá de desarrollar la confianza inicial, sin embargo, Los creadores de IA también deben trabajar para mantener esa confianza. Siau y Wang sugieren siete formas de "desarrollar una confianza continua" más allá de las fases iniciales del desarrollo del producto:
- Usabilidad y confiabilidad. AI "debe diseñarse para funcionar de manera fácil e intuitiva, "Siau y Wang escriben." No debería haber tiempos de inactividad inesperados o accidentes ".
- Colaboración y comunicación. Los desarrolladores de IA quieren crear sistemas que funcionen de forma autónoma, sin participación humana. Los desarrolladores deben centrarse en la creación de aplicaciones de inteligencia artificial que colaboren y se comuniquen con los seres humanos de forma fluida y sencilla.
- Sociabilidad y vinculación. La integración de actividades sociales en aplicaciones de inteligencia artificial es una forma de fortalecer la confianza. Un perro robótico que puede reconocer a su dueño y mostrarle afecto es un ejemplo, Siau y Wang escriben.
- Protección de seguridad y privacidad. Las aplicaciones de IA se basan en grandes conjuntos de datos, por lo que garantizar la privacidad y la seguridad será fundamental para establecer la confianza en las aplicaciones.
- Interpretabilidad. Así como la transparencia es fundamental para generar confianza inicial, la interpretabilidad, o la capacidad de una máquina para explicar sus conclusiones o acciones, ayudará a mantener la confianza.
- Colocación laboral. A medida que aumentan las preocupaciones sobre la IA que reemplace a los humanos en el trabajo, Deben establecerse políticas para brindar capacitación y educación a las personas afectadas por esta tendencia.
- Congruencia de objetivos. "Dado que la inteligencia artificial tiene el potencial de demostrar e incluso superar la inteligencia humana, es comprensible que la gente lo trate como una amenaza, "Siau y Wang escriben." Asegurarse de que los objetivos de la IA sean congruentes con los objetivos humanos es un precursor para mantener la confianza continua ". Las políticas para gobernar cómo se debe utilizar la IA serán importantes a medida que avance la tecnología, añaden los autores.
"La era de la IA será inquietante, transformador y revolucionario, "Siau escribe en otro artículo reciente (" ¿Cómo moldeará la tecnología el aprendizaje? "Publicado en la edición de marzo de 2018 de la Analista global ). Pero en este entorno inquietante, la educación superior puede desempeñar un papel importante.
"La educación superior debe estar a la altura del desafío de preparar a los estudiantes para la revolución de la IA y permitirles navegar con éxito en la era de la IA, "Escribe Siau.