¿Cuándo harás qué? Prof. Jürgen Gall (derecha) y Yazan Abu Farha del Instituto de Ciencias de la Computación de la Universidad de Bonn. Crédito:Barbara Frommann / Uni Bonn
Los informáticos de la Universidad de Bonn han desarrollado un software que puede mirar unos minutos hacia el futuro. El programa primero aprende la secuencia típica de acciones, como cocinar, de secuencias de video. Basado en este conocimiento, Luego, puede predecir con precisión en situaciones nuevas lo que hará el chef en qué momento. Los investigadores presentarán sus hallazgos en la conferencia más grande del mundo sobre visión por computadora y reconocimiento de patrones, que se llevará a cabo del 19 al 21 de junio en Salt Lake City, ESTADOS UNIDOS.
El mayordomo perfecto como saben todos los fanáticos del drama social británico, Tiene una habilidad especial:percibe los deseos de su empleador antes incluso de que hayan sido pronunciados. El grupo de trabajo del Prof. Dr. Jürgen Gall quiere enseñar a las computadoras algo similar:"Queremos predecir el momento y la duración de las actividades, minutos o incluso horas antes de que sucedan, " el explica.
Un robot de cocina por ejemplo, luego podría pasar los ingredientes tan pronto como sean necesarios, precaliente el horno a tiempo y, mientras tanto, advierta al chef si está a punto de olvidar un paso de preparación. Mientras tanto, el aspirador automático sabe que no tiene nada que ver en la cocina en ese momento, y en su lugar se ocupa de la sala de estar.
Los humanos somos muy buenos para anticiparnos a las acciones de los demás. Sin embargo, para las computadoras esta disciplina está todavía en pañales. Los investigadores del Instituto de Ciencias de la Computación de la Universidad de Bonn ahora pueden anunciar un primer éxito:han desarrollado un software de autoaprendizaje que puede estimar el tiempo y la duración de las actividades futuras con una precisión asombrosa durante períodos de varios minutos.
Datos de entrenamiento:cuatro horas de videos de ensaladas
Los datos de entrenamiento utilizados por los científicos incluyeron 40 videos en los que los artistas preparan diferentes ensaladas. Cada una de las grabaciones tuvo una duración aproximada de 6 minutos y contenía un promedio de 20 acciones diferentes. Los videos también contenían detalles precisos de a qué hora comenzó la acción y cuánto duró.
La computadora "vio" estos videos de ensaladas por un total de alrededor de cuatro horas. De esta manera, el algoritmo aprendió qué acciones normalmente se suceden durante esta tarea y cuánto duran. Esto no es de ninguna manera trivial:después de todo, cada chef tiene su propio enfoque. Adicionalmente, la secuencia puede variar según la receta.
"Luego probamos el éxito del proceso de aprendizaje, "explica Gall." Para ello confrontamos el software con videos que no había visto antes. "Al menos los nuevos cortometrajes encajan en el contexto:también mostraban la preparación de una ensalada. Para la prueba, A la computadora se le dijo lo que se muestra en el primer 20 o 30 por ciento de uno de los nuevos videos. Sobre esta base, tuvo que predecir lo que sucedería durante el resto de la película.
Eso funcionó asombrosamente bien. Gall:"La precisión fue superior al 40 por ciento para períodos breves de pronóstico, pero luego se redujo cuanto más tenía que mirar el algoritmo hacia el futuro ". Para las actividades que duraban más de tres minutos en el futuro, la computadora todavía estaba en lo cierto en el 15 por ciento de los casos. Sin embargo, el pronóstico solo se consideró correcto si tanto la actividad como su momento se predijeron correctamente.
Gall y sus colegas quieren que el estudio se entienda solo como un primer paso hacia el nuevo campo de la predicción de actividad. Especialmente porque el algoritmo funciona notablemente peor si tiene que reconocer por sí solo lo que sucede en la primera parte del video, en lugar de que se lo digan. Debido a que este análisis nunca es 100% correcto, Gall habla de datos "ruidosos". "Nuestro proceso funciona con él, ", dice." Pero, lamentablemente, tampoco cerca ".