• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Expresión y reconocimiento de intenciones en robots

    Lograr que los programas informáticos inteligentes reconozcan y expresen intenciones es complejo, muestra la tesis de Michele Persiani. Crédito:Unsplash

    Los mundos digital y físico están cada vez más poblados por programas informáticos inteligentes llamados agentes. Los agentes tienen el potencial de automatizar de manera inteligente muchas tareas diarias, como mantener una agenda, conducir, interactuar con un teléfono o una computadora, y muchas más. Sin embargo, hay muchos desafíos que resolver antes de llegar allí. Uno de ellos es que los agentes necesitan reconocer y expresar intenciones, muestra Michele Persiani en su tesis en ciencias de la computación en la Universidad de Umeå.

    En el futuro, muchos de nuestros dispositivos electrónicos estarán poblados por al menos un agente. Sin embargo, antes de que eso suceda, necesitamos diseñar su funcionamiento para la interacción humana, es decir, hacer que se comporten de una manera comprensible para nosotros, así como hacerles entender lo que queremos de ellos.

    En su tesis, "Expresión y reconocimiento de intenciones", Michele Persiani aborda partes de estos desafíos centrándose en la intencionalidad. Esto es útil para considerar cuando los agentes realizan un comportamiento dirigido a un objetivo, iniciando secuencias de acciones con el objetivo de lograr algo. Cada vez que un agente ejecuta tal comportamiento, es crucial mantener la comprensión hacia sus colaboradores sobre lo que está haciendo, cuál es su objetivo y cómo lo logrará. De lo contrario, los malentendidos pueden dar lugar a situaciones peligrosas en las que el ser humano no se percata del robot y viceversa.

    “Esta necesidad de comprensión surge simplemente porque no podemos permitirnos tener una máquina poderosa a nuestro lado sin tener idea de lo que está haciendo”, dice. "Imagina que es el año 2050, te despiertas por la mañana y tu robot mayordomo está ocupado haciendo algo, pero no tienes idea de qué se trata. ¿Está limpiando el piso? ¿Preparando una comida? Esperemos que no esté tirando al gato por la ventana". ."

    En su tesis, Michele Persiani utiliza un modelo establecido de la psicología de la vida cotidiana denominado Teoría de la Mente, que explica cómo los agentes informáticos pueden pensar en otros agentes, formando así hipótesis sobre sus objetivos y creencias. Este modelo está formado por otro concepto importante de la psicología de la vida cotidiana, la racionalidad:

    “Aplicado a nuestro caso, haremos que el robot piense en nuestro objetivo haciéndole suponer que nos mueve la racionalidad, y viceversa, haremos que razone sobre cómo estamos tratando de entender sus objetivos, haciéndole suponer que lo pensamos. es un ser racional", dice.

    Estos procesos de reconocimiento y expresión de intenciones son bastante complicados, y las investigaciones previas comúnmente los consideran con distintos conjuntos de técnicas. Sin embargo, la tesis muestra cómo estos procesos pueden compartir una arquitectura computacional subyacente común, y dentro de ella representar un dual de cada uno, no solo en palabras sino también en las fórmulas. Este es un intento hacia la unificación en una única arquitectura computacional, que abarca lo que significa acceder a la intencionalidad cuando se trata de más de un agente, y se espera que sea un hito para la investigación en el área, dice Michele Persiani.

    “La integración de agentes inteligentes en nuestra vida diaria va a ser un proceso largo y debemos ser optimistas”, dice. + Explora más

    Usar inteligencia artificial para entrenar equipos de robots para que trabajen juntos




    © Ciencia https://es.scienceaq.com