Crédito:Arrichiello et al.
Investigadores de la Universidad de Cassino y Southern Lazio, en Italia, Recientemente, han desarrollado una arquitectura de vanguardia que permite el funcionamiento de un robot de asistencia a través de una interfaz cerebro-computadora (BCI) basada en P300. Esta arquitectura, presentado en un artículo publicado previamente en arXiv, finalmente podría permitir que las personas con discapacidades de movimiento severas realicen tareas de manipulación, simplificando así sus vidas.
El sistema desarrollado por los investigadores se basa en un manipulador de robot ligero. Esencialmente, este manipulador recibe comandos de alto nivel de los usuarios a través de un BCI basado en el paradigma P300. En neurociencia, Las ondas P300 son respuestas provocadas por el cerebro de un ser humano durante el proceso de toma de decisiones.
"El principal objetivo de nuestro trabajo fue realizar un sistema que permita a los usuarios generar directivas de alto nivel para manipuladores robóticos a través de interfaces cerebro-computadora (BCI), "Filippo Arrichiello, uno de los investigadores que realizó el estudio, dijo a TechXplore. "Estas directivas se traducen luego en comandos de movimiento para el manipulador robótico que logra de forma autónoma la tarea asignada, garantizando al mismo tiempo la seguridad del usuario ".
La arquitectura desarrollada por los investigadores tiene tres componentes clave:un dispositivo P300 BCI, un robot de asistencia y un sistema de percepción. Arrichiello y sus colegas integraron estos tres elementos en un entorno ROS, un software intermedio de renombre para aplicaciones robóticas.
El primer componente de la arquitectura, el dispositivo P300 BCI, mide la actividad eléctrica en el cerebro mediante electroencefalografía (EEG). Luego traduce estas señales cerebrales en comandos que se pueden enviar a una computadora.
"El paradigma P300 para BCI utiliza la reacción del cerebro del usuario a los estímulos externos, es decir, parpadeo de iconos en una pantalla, para permitir que el usuario seleccione un elemento en la pantalla reaccionando (por ejemplo, contando) cada vez que el icono deseado parpadea, "Arrichiello explicó." Esto permite al usuario realizar un conjunto de elecciones entre un conjunto de elementos predefinidos y construir mensajes de alto nivel para el robot sobre la acción a realizar, como la manipulación de un objeto ".
Para realizar las acciones deseadas por los usuarios, los investigadores utilizaron un manipulador robótico ligero llamado Kinova Jaco. El software de control de este robot de asistencia recibe directivas de alto nivel generadas por el usuario a través del BCI y las traduce en comandos de movimiento. Su movimiento se controla mediante un algoritmo de cinemática inversa de bucle cerrado que puede gestionar simultáneamente diferentes tareas.
Crédito:Arrichiello et al.
Crédito:Arrichiello et al.
"La arquitectura de control que desarrollamos permite que el robot logre objetivos múltiples y priorizados, es decir., lograr la tarea de manipulación evitando la colisión con el usuario y / o con obstáculos externos, y respetando restricciones como los límites mecánicos del robot, Arrichiello dijo.
El componente final de la arquitectura ideada por Arrichiello y sus colegas es un sistema de percepción que se basa en un sensor RGB-D (es decir, un Microsoft Kinect One), entre otras cosas. El sistema utiliza el sensor Kinect One para detectar y localizar objetos que van a ser manipulados por el robot dentro del espacio de trabajo. El sensor también puede detectar la cara de un usuario, estimar la posición de su boca y reconocer obstáculos.
"Las implicaciones prácticas de nuestro estudio son bastante sencillas y ambiciosas, Arrichiello dijo. "Su objetivo final es avanzar en la dirección de construir una configuración robótica confiable y efectiva que finalmente pueda ayudar a los usuarios con discapacidades graves de movilidad a realizar operaciones de la vida diaria de manera autónoma y sin el apoyo constante de un cuidador".
Cuando los investigadores comenzaron a trabajar en el desarrollo de un robot de asistencia impulsado por un BCI, Primero experimentaron con un sistema compuesto por un único manipulador de base fija que reconoce objetos a través de marcadores y con una interfaz de usuario preconfigurada. Ahora han avanzado considerablemente en esta arquitectura, hasta el punto de que permite a los usuarios manejar sistemas robóticos más complejos, como robots móviles con brazos dobles.
Crédito:Arrichiello et al.
Crédito:Arrichiello et al.
"También hemos mejorado el módulo de percepción, que ahora puede reconocer y localizar objetos en función de sus formas, Arrichiello explicó. Finalmente, Trabajamos en la interacción entre el módulo de percepción y la interfaz gráfica de usuario (GUI) para crear dinámicas de GUI de acuerdo con las detecciones del módulo de percepción (por ejemplo, la interfaz de usuario se actualiza en función del número y tipo de objetos reconocidos en una mesa por el módulo de percepción ".
Para evaluar el rendimiento y la eficacia de su arquitectura, Arrichiello y sus colegas llevaron a cabo una serie de experimentos preliminares, obteniendo resultados muy prometedores. En el futuro, su sistema podría cambiar la vida de las personas afectadas por discapacidades de movimiento y lesiones físicas, permitiéndoles completar una amplia variedad de tareas de manipulación.
"La investigación futura estará dirigida en primer lugar a mejorar la solidez y confiabilidad de la arquitectura, más allá de aumentar el dominio de aplicación del sistema, Arrichiello dijo. Además, probaremos diferentes paradigmas de BCI, es decir, una forma diferente de usar el BCI como las basadas en imágenes motoras, para identificar el más adecuado para aplicaciones de teleoperación, donde el usuario podría controlar el robot usando el BCI como una especie de joystick, sin limitar el comando de movimiento que se puede impartir a los robots a un conjunto predefinido ".
© 2019 Science X Network