• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El algoritmo inspirado en el cerebro ayuda a los sistemas de IA a realizar múltiples tareas y recordar

    Los neurocientíficos de UChicago descubrieron que la adaptación de un mecanismo cerebral puede mejorar la capacidad de las redes neuronales artificiales para aprender múltiples tareas. Crédito:istockphoto.com

    Detrás de la mayoría de las tecnologías de inteligencia artificial actuales, desde vehículos autónomos hasta reconocimiento facial y asistentes virtuales, yacen redes neuronales artificiales. Aunque se basa libremente en la forma en que las neuronas se comunican en el cerebro, estos sistemas de "aprendizaje profundo" siguen siendo incapaces de realizar muchas funciones básicas que serían esenciales para los primates y otros organismos.

    Sin embargo, Un nuevo estudio de neurocientíficos de la Universidad de Chicago descubrió que la adaptación de un mecanismo cerebral conocido puede mejorar drásticamente la capacidad de las redes neuronales artificiales para aprender múltiples tareas y evitar el desafío persistente de la IA del "olvido catastrófico". El estudio, publicado en procedimientos de la Academia Nacional de Ciencias , proporciona un ejemplo único de cómo la investigación en neurociencias puede informar nuevas estrategias informáticas, y, en cambio, cómo la tecnología de la IA puede ayudar a los científicos a comprender mejor el cerebro humano.

    Cuando se combina con métodos previamente reportados para estabilizar conexiones sinápticas en redes neuronales artificiales, El nuevo algoritmo permitió que las redes neuronales artificiales individuales aprendieran y realizaran cientos de tareas con una mínima pérdida de precisión. potencialmente permitiendo tecnologías de IA más potentes y eficientes.

    "Intuitivamente, podría pensar que cuantas más tareas desee que sepa una red, cuanto más grande tenga que ser la red, "dijo David Freedman, profesor de neurobiología en UChicago. "Pero el cerebro sugiere que probablemente haya alguna forma eficiente de empaquetar una gran cantidad de conocimiento en una red bastante pequeña. Cuando observas partes del cerebro involucradas en funciones cognitivas superiores, tiendes a encontrar que las mismas áreas, incluso las mismas celdas, participar en muchas funciones diferentes. La idea era inspirarse en lo que hace el cerebro para resolver desafíos con redes neuronales ".

    En redes neuronales artificiales, El "olvido catastrófico" se refiere a la dificultad de enseñar al sistema a realizar nuevas habilidades sin perder funciones previamente aprendidas. Por ejemplo, si una red entrenada inicialmente para distinguir entre fotos de perros y gatos se vuelve a entrenar para distinguir entre perros y caballos, perderá su habilidad anterior.

    "Si muestra una nueva tarea a una red neuronal entrenada, se olvidará por completo de su tarea anterior, "dijo Gregory Grant, AB'18, que ahora es investigador en el laboratorio Freedman. "Dice, 'No necesito esa información, 'y lo sobrescribe. Eso es un olvido catastrófico. Sucede muy rápido; en solo un par de iteraciones, su tarea anterior podría ser completamente borrada ".

    Por el contrario, el cerebro es capaz de "aprendizaje continuo, "adquirir nuevos conocimientos sin eliminar viejos recuerdos, incluso cuando se utilizan las mismas neuronas para múltiples tareas. Una estrategia que usa el cerebro para este desafío de aprendizaje es la activación selectiva de células o componentes celulares para diferentes tareas, esencialmente encender más pequeños, subredes superpuestas para cada habilidad individual, o en diferentes contextos.

    Los investigadores de UChicago adaptaron este mecanismo neurocientífico a las redes neuronales artificiales a través de un algoritmo que llamaron "activación dependiente del contexto". Por cada nueva tarea aprendida, solo se activa un 20 por ciento aleatorio de una red neuronal. Una vez que la red está capacitada en cientos de tareas diferentes, un solo nodo puede estar involucrado en docenas de operaciones, pero con un conjunto único de compañeros para cada habilidad individual.

    Cuando se combina con métodos desarrollados previamente por investigadores de Google y Stanford, La compuerta dependiente del contexto permitió a las redes aprender hasta 500 tareas con solo una pequeña disminución en la precisión.

    "Fue un poco sorprendente que algo tan simple funcionara tan bien, "dijo Nicolas Masse, investigador postdoctoral en el laboratorio Freedman. "Pero con este método, una red de tamaño bastante medio se puede dividir en un montón de formas para poder aprender muchas tareas diferentes si se hace correctamente ".

    Como tal, el enfoque probablemente tiene un gran potencial en la creciente industria de la IA, donde las empresas que desarrollan vehículos autónomos, La robótica y otras tecnologías inteligentes deben incluir capacidades de aprendizaje complejas en computadoras de nivel de consumidor. El equipo de UChicago está trabajando actualmente con el Centro Polsky de Emprendimiento e Innovación para explorar opciones de comercialización para el algoritmo.

    La investigación computacional también beneficia el enfoque original del laboratorio en comprender mejor el cerebro de los primates al registrar su actividad a medida que los animales aprenden y se comportan. Modelar y probar estrategias que permitan el aprendizaje, atención, El procesamiento sensorial y otras funciones en una computadora pueden motivar y sugerir nuevos experimentos biológicos que investiguen los mecanismos de la inteligencia tanto natural como artificial. dijeron los investigadores.

    "Agregar este componente de investigación al laboratorio realmente ha abierto muchas puertas en términos de permitirnos pensar en nuevos tipos de problemas, nuevos tipos de temas y problemas de neurociencia que normalmente no podemos abordar realmente utilizando las técnicas experimentales que actualmente tenemos disponibles en el laboratorio, ", Dijo Freedman." Esperamos que este sea el punto de partida para más trabajo en el laboratorio para identificar esos principios y ayudar a crear redes artificiales que continúen aprendiendo y construyendo sobre el conocimiento previo ".


    © Ciencia https://es.scienceaq.com