• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo investigar cuándo un robot provoca un accidente y por qué es importante que lo hagamos

    Crédito:Andrey_Popov/Shutterstock

    Los robots están cada vez más presentes en nuestra vida diaria. Pueden ser increíblemente útiles (extremidades biónicas, cortacéspedes robóticos o robots que entregan comidas a personas en cuarentena) o simplemente entretenidos (perros robóticos, juguetes que bailan y drones acrobáticos). La imaginación es quizás el único límite de lo que los robots podrán hacer en el futuro.

    Sin embargo, ¿qué sucede cuando los robots no hacen lo que queremos que hagan, o lo hacen de una manera que causa daño? Por ejemplo, ¿qué sucede si un brazo biónico se ve involucrado en un accidente automovilístico?

    Los accidentes de robots se están convirtiendo en una preocupación por dos razones. Primero, el aumento en el número de robots naturalmente verá un aumento en el número de accidentes en los que están involucrados. Segundo, estamos mejorando en la construcción de robots más complejos. Cuando un robot es más complejo, es más difícil entender por qué algo salió mal.

    La mayoría de los robots funcionan con diversas formas de inteligencia artificial (IA). Las IA son capaces de tomar decisiones similares a las humanas (aunque pueden tomar decisiones objetivamente buenas o malas). Estas decisiones pueden ser varias cosas, desde identificar un objeto hasta interpretar el habla.

    Las IA están capacitadas para tomar estas decisiones por el robot en función de la información de grandes conjuntos de datos. Luego, se prueba la precisión de las IA (qué tan bien hacen lo que queremos que hagan) antes de establecer la tarea.

    Las IA se pueden diseñar de diferentes maneras. Como ejemplo, considere el robot aspirador. Podría diseñarse de modo que cada vez que choca contra una superficie se redirige en una dirección aleatoria. Por el contrario, podría diseñarse para trazar un mapa de su entorno para encontrar obstáculos, cubrir todas las áreas de superficie y regresar a su base de carga. Mientras que la primera aspiradora recibe información de sus sensores, la segunda rastrea esa información en un sistema de mapeo interno. En ambos casos, la IA está tomando información y tomando una decisión al respecto.

    Cuantas más cosas complejas es capaz de hacer un robot, más tipos de información tiene que interpretar. También puede estar evaluando múltiples fuentes de un tipo de datos, como, en el caso de datos auditivos, una voz en vivo, una radio y el viento.

    A medida que los robots se vuelven más complejos y pueden actuar sobre una variedad de información, se vuelve aún más importante determinar sobre qué información actuó el robot, particularmente cuando se causa daño.

    Los accidentes ocurren

    Como con cualquier producto, las cosas pueden salir mal con los robots. A veces se trata de un problema interno, como que el robot no reconozca un comando de voz. A veces es externo:el sensor del robot está dañado. Y a veces pueden ser ambas cosas, como que el robot no esté diseñado para trabajar en alfombras y "tropece". Las investigaciones de accidentes de robots deben analizar todas las posibles causas.

    Si bien puede ser un inconveniente si el robot se daña cuando algo sale mal, nos preocupa mucho más cuando el robot causa daño o no logra mitigar el daño a una persona. Por ejemplo, si un brazo biónico no logra agarrar una bebida caliente, tirándosela al dueño; o si un robot de atención no registra una llamada de socorro cuando el frágil usuario se ha caído.

    ¿Por qué la investigación de accidentes de robots es diferente a la de accidentes humanos? En particular, los robots no tienen motivos. Queremos saber por qué un robot tomó la decisión que tomó en función del conjunto particular de entradas que tenía.

    En el ejemplo del brazo biónico, ¿fue una falta de comunicación entre el usuario y la mano? ¿El robot confundió varias señales? ¿Bloquear inesperadamente? En el ejemplo de la persona que se cae, ¿no podría el robot "oír" la llamada de ayuda a través de un ventilador ruidoso? ¿O tuvo problemas para interpretar el habla del usuario?

    La caja negra

    La investigación de accidentes de robots tiene un beneficio clave sobre la investigación de accidentes humanos:existe la posibilidad de un testigo incorporado. Los aviones comerciales tienen un testigo similar:la caja negra, construida para soportar accidentes aéreos y proporcionar información sobre por qué ocurrió el accidente. Esta información es increíblemente valiosa no solo para comprender los incidentes, sino también para evitar que vuelvan a ocurrir.

    Como parte de RoboTIPS, un proyecto que se centra en la innovación responsable de los robots sociales (robots que interactúan con las personas), hemos creado lo que llamamos la caja negra ética:un registro interno de las entradas del robot y las acciones correspondientes. La caja negra ética está diseñada para cada tipo de robot que habita y está diseñada para registrar toda la información sobre la que actúa el robot. Esto puede ser actividad de voz, visual o incluso de ondas cerebrales.

    Estamos probando la caja negra ética en una variedad de robots tanto en condiciones de laboratorio como de accidentes simulados. El objetivo es que la caja negra ética se convierta en un estándar en los robots de todas las marcas y aplicaciones.

    Si bien los datos registrados por la caja negra ética aún deben interpretarse en el caso de un accidente, tener estos datos en primera instancia es crucial para permitirnos investigar.

    El proceso de investigación ofrece la oportunidad de garantizar que los mismos errores no se repitan dos veces. La caja negra ética es una forma no solo de construir mejores robots, sino también de innovar responsablemente en un campo emocionante y dinámico.

    © Ciencia https://es.scienceaq.com