• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo aprende una computadora a driblar:práctica, práctica, práctica

    Investigadores de la Universidad Carnegie Mellon y DeepMotion Inc., una empresa de California que desarrolla avatares inteligentes, han desarrollado por primera vez un sistema basado en la física, método en tiempo real para controlar personajes animados que pueden aprender habilidades de regate de la experiencia. En este caso, el sistema aprende de la captura de movimiento de los movimientos realizados por personas que botan pelotas de baloncesto. Crédito:Universidad Carnegie Mellon / DeepMotion

    Los jugadores de baloncesto necesitan mucha práctica antes de dominar el regate, y resulta que eso también es cierto para los jugadores animados por computadora. Al utilizar el aprendizaje por refuerzo profundo, Los jugadores de videojuegos de baloncesto pueden obtener información de los datos de captura de movimiento para mejorar sus habilidades de regate.

    Investigadores de la Universidad Carnegie Mellon y DeepMotion Inc., una empresa de California que desarrolla avatares inteligentes, han desarrollado por primera vez un sistema basado en la física, método en tiempo real para controlar personajes animados que pueden aprender habilidades de regate de la experiencia. En este caso, el sistema aprende de la captura de movimiento de los movimientos realizados por personas que botan pelotas de baloncesto.

    Este proceso de aprendizaje de prueba y error requiere mucho tiempo, requiriendo millones de pruebas, pero los resultados son movimientos de brazos que están estrechamente coordinados con un movimiento de pelota físicamente plausible. Los jugadores aprenden a driblear entre las piernas, driblear a sus espaldas y hacer movimientos cruzados, así como cómo pasar de una habilidad a otra.

    "Una vez que se aprenden las habilidades, los nuevos movimientos se pueden simular mucho más rápido que en tiempo real, "dijo Jessica Hodgins, Profesor Carnegie Mellon de informática y robótica.

    Hodgins y Libin Liu, científico jefe de DeepMotion, presentará el método en SIGGRAPH 2018, la Conferencia sobre Gráficos por Computadora y Técnicas Interactivas, 12-18 de agosto en Vancouver.

    Investigadores de la Universidad Carnegie Mellon y DeepMotion Inc., una empresa de California que desarrolla avatares inteligentes, han desarrollado por primera vez un sistema basado en la física, método en tiempo real para controlar personajes animados que pueden aprender habilidades de regate de la experiencia. En este caso, el sistema aprende de la captura de movimiento de los movimientos realizados por personas que botan pelotas de baloncesto. Crédito:Universidad Carnegie Mellon / DeepMotion

    "Esta investigación abre la puerta a la simulación de deportes con avatares virtuales expertos, "dijo Liu, el primer autor del informe. "La tecnología se puede aplicar más allá de la simulación deportiva para crear personajes más interactivos para los juegos, animación, análisis de movimiento, y en el futuro, robótica ".

    Los datos de captura de movimiento ya añaden realismo a los videojuegos de última generación. Pero estos juegos también incluyen artefactos desconcertantes, Liu señaló, como pelotas que siguen trayectorias imposibles o que parecen pegarse a la mano de un jugador.

    Un método basado en la física tiene el potencial de crear juegos más realistas, pero conseguir los detalles sutiles correctamente es difícil. Eso es especialmente cierto para el regate de una pelota de baloncesto porque el contacto del jugador con la pelota es breve y la posición de los dedos es fundamental. Algunos detalles, como la forma en que una pelota puede continuar girando brevemente cuando hace un ligero contacto con las manos del jugador, son difíciles de reproducir. Y una vez que se suelta la pelota, el jugador tiene que anticipar cuándo y dónde volverá la pelota.

    Liu y Hodgins optaron por utilizar el aprendizaje por refuerzo profundo para permitir que el modelo recoja estos detalles importantes. Los programas de inteligencia artificial han utilizado esta forma de aprendizaje profundo para descubrir una variedad de videojuegos y el famoso programa AlphaGo lo empleó para dominar el juego de mesa Go.

    Los datos de captura de movimiento utilizados como entrada fueron de personas que hacen cosas como rotar la pelota alrededor de la cintura, driblear mientras corre y driblear en su lugar tanto con la mano derecha como al cambiar de mano. Estos datos de captura no incluyen el movimiento de la pelota, que Liu explicó es difícil de registrar con precisión. En lugar de, utilizaron la optimización de la trayectoria para calcular las trayectorias más probables de la pelota para un movimiento de mano dado.

    El programa aprendió las habilidades en dos etapas:primero dominó la locomoción y luego aprendió a controlar los brazos y las manos y, a través de ellos, el movimiento de la bola. Este enfoque desacoplado es suficiente para acciones como driblar o tal vez hacer malabares, donde la interacción entre el personaje y el objeto no tiene un efecto en el equilibrio del personaje. Se requiere más trabajo para abordar los deportes, como el futbol, donde el equilibrio está estrechamente unido a las maniobras del juego, Dijo Liu.


    © Ciencia https://es.scienceaq.com