• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El monociclo incierto que se enseñó a sí mismo y cómo ayuda a la IA a tomar buenas decisiones

    Crédito:El Distrito

    Los investigadores de Cambridge son pioneros en una forma de aprendizaje automático que comienza con solo un poco de conocimiento previo y aprende continuamente del mundo que lo rodea.

    En el centro de la pantalla hay un pequeño monociclo. La animación comienza, el monociclo se tambalea hacia adelante y cae. Esta es la prueba n. ° 1. Ahora es la prueba n. ° 11 y hay un cambio:un retraso casi imperceptible en el otoño, quizás un intento de enderezarse antes del inevitable colapso. "Es aprender de la experiencia, "asiente el profesor Carl Edward Rasmussen.

    Después de un minuto, el monociclo se balancea suavemente hacia adelante y hacia atrás mientras gira sobre el terreno. Ha descubierto cómo funciona este sistema extremadamente inestable y ha logrado su objetivo. "El monociclo comienza sin saber nada sobre lo que está sucediendo; solo se le ha dicho que su objetivo es permanecer en el centro de manera vertical. A medida que comienza a caer hacia adelante y hacia atrás, empieza a aprender, "explica Rasmussen, quien lidera el Laboratorio de Aprendizaje Computacional y Biológico en el Departamento de Ingeniería. "Teníamos un robot monociclo real, pero en realidad era bastante peligroso, era fuerte, por lo que ahora usamos datos del real para ejecutar simulaciones. y tenemos una versión mini ".

    Rasmussen utiliza el monociclo autodidacta para demostrar cómo una máquina puede comenzar con muy pocos datos y aprender de forma dinámica. mejorando su conocimiento cada vez que recibe nueva información de su entorno. Las consecuencias de ajustar su impulso motorizado y su equilibrio ayudan al monociclo a aprender qué movimientos fueron importantes para ayudarlo a mantenerse erguido en el centro.

    "Esto es como lo aprendería un humano, "explica el profesor Zoubin Ghahramani, quien lidera el Grupo de Aprendizaje Automático en el Departamento de Ingeniería. "No empezamos a saberlo todo. Aprendemos cosas de forma incremental, a partir de unos pocos ejemplos, y sabemos cuando aún no estamos seguros de nuestro entendimiento ".

    El equipo de Ghahramani es pionero en una rama de la IA llamada aprendizaje automático continuo. Explica que muchas de las formas actuales de aprendizaje automático se basan en redes neuronales y modelos de aprendizaje profundo que utilizan algoritmos complejos para encontrar patrones en vastos conjuntos de datos. Las aplicaciones comunes incluyen la traducción de frases a diferentes idiomas, reconocer personas y objetos en imágenes, y detección de gastos inusuales en tarjetas de crédito.

    "Estos sistemas deben capacitarse en millones de ejemplos etiquetados, lo que lleva tiempo y mucha memoria de la computadora, ", explica." Y tienen fallas. Cuando los prueba fuera de los datos en los que fueron entrenados, tienden a tener un desempeño deficiente. Coches sin conductor, por ejemplo, pueden estar entrenados en un enorme conjunto de datos de imágenes, pero es posible que no puedan generalizar a condiciones de niebla.

    "Peor que eso, Los sistemas de aprendizaje profundo actuales a veces pueden darnos respuestas erróneas con seguridad. y proporcionan una visión limitada de por qué han tomado decisiones concretas. Eso es lo que me molesta. Está bien equivocarse, pero no está bien equivocarse con seguridad ".

    La clave es cómo lidiar con la incertidumbre:la incertidumbre de los datos desordenados y faltantes, y la incertidumbre de predecir lo que podría suceder a continuación. "La incertidumbre no es algo bueno, es algo con lo que luchas, pero no puedes combatirlo ignorándolo, ", dice Rasmussen." Estamos interesados ​​en representar la incertidumbre ".

    Resulta que hay una teoría matemática que te dice qué hacer. Fue descrito por primera vez por el estadístico inglés del siglo XVIII Thomas Bayes. El grupo de Ghahramani fue uno de los primeros en adoptar la IA de la teoría de la probabilidad bayesiana, que describe cómo la probabilidad de que ocurra un evento (como permanecer erguido en el centro) se actualiza a medida que se dispone de más evidencia (como la última decisión que tomó el monociclo antes de caer).

    El Dr. Richard Turner explica cómo la regla de Bayes maneja el aprendizaje continuo:"el sistema toma su conocimiento previo, lo pondera por lo exacto que cree que es el conocimiento, luego lo combina con nueva evidencia que también es ponderada por su precisión.

    "Esto es mucho más eficiente en cuanto a datos que la forma en que funciona una red neuronal estándar, ", agrega." La nueva información puede hacer que una red neuronal olvide todo lo que aprendió anteriormente, lo que se denomina olvido catastrófico, lo que significa que debe mirar todos los ejemplos etiquetados de nuevo. como volver a aprender las reglas y el glosario de un idioma cada vez que aprendes una palabra nueva.

    "Nuestro sistema no necesita revisar todos los datos que ha visto antes, al igual que los humanos no recuerdan todas las experiencias pasadas; en cambio, aprendemos un resumen y lo actualizamos a medida que avanzan las cosas". Ghahramani agrega:"Lo mejor del aprendizaje automático bayesiano es que el sistema toma decisiones basadas en la evidencia (a veces se piensa que 'automatiza el método científico') y, debido a que se basa en la probabilidad, puede decirnos cuándo está fuera de su zona de confort ".

    Ghahramani también es científico jefe de Uber. Él ve un futuro en el que las máquinas están aprendiendo continuamente no solo individualmente sino como parte de un grupo. "Ya sean empresas como Uber que optimizan la oferta y la demanda, o vehículos autónomos que se alertan entre sí de lo que se avecina en la carretera, o robots trabajando juntos para levantar una carga pesada - cooperación, y a veces competencia, en IA ayudará a resolver problemas en una amplia gama de industrias ".

    Una de las fronteras realmente emocionantes es poder modelar los resultados probables en el futuro, como describe Turner. "El papel de la incertidumbre se vuelve muy claro cuando comenzamos a hablar de pronosticar problemas futuros como el cambio climático".

    Turner está trabajando con los científicos climáticos, la Dra. Emily Shuckburgh y el Dr. Scott Hosking, del British Antarctic Survey, para preguntarse si las técnicas de aprendizaje automático pueden mejorar la comprensión de los riesgos del cambio climático en el futuro.

    "Necesitamos cuantificar el riesgo futuro y los impactos del clima extremo a escala local para informar las respuestas políticas al cambio climático, "explica Shuckburgh." Las simulaciones tradicionales por computadora del clima nos dan una buena comprensión de las condiciones climáticas promedio. Lo que pretendemos hacer con este trabajo es combinar ese conocimiento con datos de observación de satélites y otras fuentes para manejar mejor, por ejemplo, el riesgo de fenómenos meteorológicos de baja probabilidad pero de alto impacto ".

    "En realidad, es un desafío fascinante de aprendizaje automático, "dice Turner, que está ayudando a identificar qué área de la modelización climática es más adecuada para utilizar la probabilidad bayesiana. "Los datos son extremadamente complejos, ya veces faltantes y sin etiquetar. Las incertidumbres abundan ". Un elemento significativo de incertidumbre es el hecho de que las predicciones se basan en nuestra futura reducción de emisiones, cuya extensión es aún desconocida.

    "Una parte interesante de esto para los responsables políticos, además del valor de pronóstico, es que se puede imaginar tener una máquina que aprende continuamente de las consecuencias de las estrategias de mitigación, como la reducción de las emisiones, o la falta de ellas, y ajusta sus predicciones en consecuencia, "agrega Turner.

    Lo que está describiendo es una máquina que, como el monociclo, se alimenta de la incertidumbre, aprende continuamente del mundo real, y evalúa y luego reevalúa todos los resultados posibles. Cuando se trata de clima, sin embargo, también es una máquina de todos los futuros posibles.


    © Ciencia https://es.scienceaq.com