• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • AlterEgo abre un resorte silencioso de conexiones informáticas a través de un dispositivo portátil

    Crédito:MIT, Jimmy Day / Creative Commons, Atribución 4.0 Internacional

    OK, lo entendemos. Los expertos en inteligencia artificial están en un clip rápido de año en año, mes a mes, mostrando lo que su investigación puede prometer. Pero, ¿podría ser que hayamos llegado a esa etapa en la interacción humano-computadora, ¿Dónde puede pensar en una pregunta, sin decir una palabra, y la máquina responderá con la respuesta?

    ¿Cuánto cuesta todo esto? ¿Qué tiempo hace en Denver?

    El Proyecto AlterEgo indica que hemos llegado a una etapa tan emocionante de no hablar.

    "AlterEgo es un método no invasivo, usable, interfaz neuronal periférica que permite a los humanos conversar en lenguaje natural con máquinas, asistentes de inteligencia artificial, servicios, y otras personas sin voz, sin abrir la boca, y sin movimientos observables externamente, simplemente articulando las palabras internamente ".

    La retroalimentación del usuario es a través de audio, por conducción ósea. El usuario puede transmitir y recibir flujos de información hacia y desde el dispositivo informático.

    ¿Cómo lo haces? ¿Cómo envía palabras si no habla en voz alta? Esto es a través de la vocalización interna, señales neuromusculares de la lengua y la parte posterior del paladar traducidas a comandos de computadora.

    OK, estás conversando en silencio con tu máquina, pero no es un acto de brunch en Las Vegas. Este es tu segundo yo. Es más como si acabaras hablando contigo mismo. "AlterEgo busca combinar humanos y computadoras, de manera que la informática, La Internet, y la IA se integraría en la personalidad humana como un 'segundo yo' interno y aumentaría la cognición y las habilidades humanas, "según la página del proyecto.

    No está leyendo tu mente como resultado de tu simple pensamiento. Este es un discurso silencioso.

    "Hablar en silencio es un esfuerzo consciente para decir una palabra, caracterizado por movimientos sutiles de los órganos internos del habla sin realmente expresarlo. El proceso da como resultado señales desde su cerebro a sus músculos que son captadas como señales neuromusculares y procesadas por nuestro dispositivo. ", dijo el sitio del proyecto.

    La tecnología se describe en parte como a través de audio de conducción ósea. El usable del usuario es un auricular de conducción ósea. Las señales se transmiten a través de una 'pegatina, dijo Cuarzo , usado a lo largo del cuello y la mandíbula del usuario, y las respuestas se transmiten a través de un auricular.

    ¿Quién está detrás de este proyecto? Aquellos que estuvieron en una conferencia TED reciente lo descubrieron; es Arnav Kapur del MIT Media Lab, un investigador de aumento de inteligencia.

    Anne Quito informó para Cuarzo y notó un prototipo anterior el año pasado. "Aunque el prototipo 2018 de AlterEgo hizo que el usuario pareciera tener una lesión en la cabeza, "Kapur dijo que están enfocados en perfeccionar los dispositivos portátiles hasta el punto de que se vuelven imperceptibles". el diseño que mostró en TED era casi indetectable aparte del cable que salía de la oreja de Eric, "dijo Quito.

    ¿Cuándo podríamos ver este dispositivo como un producto? No pronto.

    "Este es un proyecto de investigación con base en la universidad. Seguimos desarrollando el sistema centrándonos en mejoras como la reducción de la cantidad de electrodos necesarios, diseñar factores de forma más socialmente aceptables, mejorar las redes neuronales que reconocen el habla silenciosa, además de trabajar para reducir la formación y la personalización necesarias, y por último pero no menos importante, diseñar la experiencia del usuario y las aplicaciones de un extremo a otro, ", explicó el proyecto Ream." Cualquier esperanza de comercialización es prematura ".

    Ese, sin embargo, no impide que el equipo plantee aplicaciones del mundo real. Como Empresa rápida comentó, Las implicaciones de que este auricular pueda leer las vibraciones internas del habla son enormes. Más allá de preguntar en silencio cómo está el clima en otra ciudad. O cuánto cuestan los alimentos hasta ahora.

    Uno de esos beneficiarios de AlterEgo podría ser una persona que haya perdido la capacidad de hablar debido a la ELA, cáncer de garganta o accidente cerebrovascular. La persona con discapacidad del habla podría comunicarse en tiempo real.

    En el panorama general, el equipo del MIT está haciendo su granito de arena para sembrar áreas interesantes en tecnología, llamarlos "mejora cognitiva, "o" aumento de inteligencia ". Si los ingenieros dedican tanto tiempo a hacer que nuestras pantallas sean inteligentes, ¿Qué pasa con nosotros? Esa es la pregunta de Kapur. "En lugar de hacer que esa caja sea más inteligente, ¿Cómo se mejora a los humanos para que sean más creativos y conectados? "

    Trabajando con Kapur en este proyecto están Pattie Maes, Un profesor, que dirige el grupo de investigación Fluid Interfaces del Media Lab, y Eric Wadkins, líder de aprendizaje automático. Se unió al grupo Fluid Interfaces para trabajar en la creación de un sistema de reconocimiento de voz subvocal continuo para el proyecto.

    © 2019 Science X Network




    © Ciencia https://es.scienceaq.com