Crédito:CC0 Public Domain
Durante años, las personas que desarrollan la inteligencia artificial se inspiraron en lo que se sabía sobre el cerebro humano, y ha tenido mucho éxito como resultado. Ahora, AI está comenzando a devolver el favor.
Aunque no está diseñado explícitamente para hacerlo, ciertos sistemas de inteligencia artificial parecen imitar el funcionamiento interno de nuestro cerebro más de cerca de lo que se pensaba anteriormente, lo que sugiere que tanto la IA como nuestras mentes han convergido en el mismo enfoque para resolver problemas. Si es así, simplemente observar la IA en funcionamiento podría ayudar a los investigadores a descubrir algunos de los misterios más profundos del cerebro.
"Hay una conexión real ahí, "dijo Daniel Yamins, profesor asistente de psicología. Ahora, Yamins, quien también es académico académico del Instituto de Neurociencias de Stanford y miembro de Stanford Bio-X, y su laboratorio se basan en esa conexión para producir mejores teorías del cerebro:cómo percibe el mundo, cómo cambia de manera eficiente de una tarea a la siguiente y tal vez, Un día, cómo piensa.
Un problema de visión para la IA
La inteligencia artificial ha estado tomando prestada del cerebro desde sus primeros días, cuando los informáticos y los psicólogos desarrollaron algoritmos llamados redes neuronales que imitaban vagamente al cerebro. Esos algoritmos fueron criticados con frecuencia por ser biológicamente inverosímiles:las "neuronas" en las redes neuronales eran, después de todo, burdas simplificaciones de las neuronas reales que componen el cerebro. Pero a los informáticos no les importaba la plausibilidad biológica. Solo querían sistemas que funcionaran por lo que ampliaron los modelos de redes neuronales de cualquier manera que hiciera que el algoritmo fuera más capaz de llevar a cabo ciertas tareas, culminando en lo que ahora se llama aprendizaje profundo.
Luego vino una sorpresa. En 2012, Los investigadores de inteligencia artificial demostraron que una red neuronal de aprendizaje profundo podría aprender a identificar objetos en imágenes, así como a un ser humano. lo que hizo que los neurocientíficos se preguntaran:¿Cómo lo hizo el aprendizaje profundo?
De la misma manera que lo hace el cerebro, como resulta. En 2014, Yamins y sus colegas demostraron que un sistema de aprendizaje profundo que había aprendido a identificar objetos en imágenes, casi tan bien como los humanos, lo hizo de una manera que imitaba de cerca la forma en que el cerebro procesa la visión. De hecho, Los cálculos que realizó el sistema de aprendizaje profundo coincidieron con la actividad en los circuitos de procesamiento de la visión del cerebro sustancialmente mejor que cualquier otro modelo de esos circuitos.
Casi al mismo tiempo, otros equipos hicieron observaciones similares sobre partes de la visión del cerebro y los circuitos de procesamiento del movimiento, sugiriendo que dado el mismo tipo de problema, el aprendizaje profundo y el cerebro habían desarrollado formas similares de encontrar una solución. Más recientemente, Yamins y sus colegas han demostrado observaciones similares en el sistema auditivo del cerebro.
Por un lado, eso no es una gran sorpresa. Aunque los detalles técnicos difieren, La organización conceptual del aprendizaje profundo se toma prestada directamente de lo que los neurocientíficos ya sabían sobre la organización de las neuronas en el cerebro.
Pero el éxito del enfoque de Yamins y sus colegas y otros similares depende igualmente de otro, elección más sutil. En lugar de intentar que el sistema de aprendizaje profundo coincida directamente con lo que hace el cerebro a nivel de neuronas individuales, como habían hecho muchos investigadores, Yamins y sus colegas simplemente le dieron a su sistema de aprendizaje profundo el mismo problema:identificar objetos en imágenes. Solo después de que hubo resuelto ese problema, los investigadores compararon cómo el aprendizaje profundo y el cerebro llegaron a sus soluciones, y solo entonces quedó claro que sus métodos eran esencialmente los mismos.
"La correspondencia entre los modelos y el sistema visual no es del todo una coincidencia, porque uno inspiró directamente al otro, "dijo Daniel Bear, investigador postdoctoral en el grupo de Yamins, "pero aún es notable que sea una correspondencia tan buena como lo es".
Una probable razón para eso, Bear dijo:es la selección natural y la evolución. "Básicamente, El reconocimiento de objetos era una tarea muy importante desde el punto de vista evolutivo "para que los animales resolvieran, y resolvieran bien, si quisieran distinguir entre algo que pudieran comer y algo que pudieran comerlos. Quizás tratar de hacer eso tan bien como lo hacen los humanos y otros animales, excepto con una computadora, llevó a los investigadores a encontrar esencialmente la misma solución.
Busca lo que busca el cerebro
Cualquiera que sea la razón subyacente, Las ideas obtenidas del estudio de 2014 llevaron a lo que Yamins llama modelos del cerebro dirigidos a objetivos:en lugar de intentar modelar la actividad neuronal en el cerebro directamente, en su lugar, entrena inteligencia artificial para resolver problemas que el cerebro necesita resolver, luego use el sistema de IA resultante como modelo del cerebro. Desde 2014, Yamins y sus colaboradores han estado refinando el modelo original dirigido a objetivos de los circuitos de visión del cerebro y extendiendo el trabajo en nuevas direcciones. incluida la comprensión de los circuitos neuronales que procesan las entradas de los bigotes de los roedores.
En quizás el proyecto más ambicioso, Yamins y el becario postdoctoral Nick Haber están investigando cómo los bebés aprenden sobre el mundo que los rodea a través del juego. Sus bebés, en realidad simulaciones por computadora relativamente simples, están motivados solo por la curiosidad. Exploran sus mundos moviéndose e interactuando con objetos, aprendiendo sobre la marcha para predecir lo que sucede cuando golpean las bolas o simplemente giran la cabeza. Al mismo tiempo, el modelo aprende a predecir qué partes del mundo no comprende, luego trata de averiguarlos.
Mientras que la simulación por computadora comienza su vida, por así decirlo, sin saber esencialmente nada sobre el mundo, eventualmente descubre cómo categorizar diferentes objetos e incluso cómo romper dos o tres de ellos juntos. Aunque las comparaciones directas con la actividad neuronal de los bebés pueden ser prematuras, el modelo podría ayudar a los investigadores a comprender mejor cómo los bebés usan el juego para aprender sobre su entorno, Haber dijo.
En el otro extremo del espectro, Los modelos inspirados en la inteligencia artificial podrían ayudar a resolver un rompecabezas sobre el diseño físico del cerebro, dijo Eshed Margalit, estudiante de posgrado en neurociencias. A medida que se desarrollan los circuitos de visión en el cerebro de los bebés, forman parches específicos (grupos físicos de neuronas) que responden a diferentes tipos de objetos. Por ejemplo, los humanos y otros primates forman un parche facial que se activa casi exclusivamente cuando miran caras.
Exactamente por qué el cerebro forma esos parches, Margalit dijo:no está claro. El cerebro no necesita un parche facial para reconocer rostros, por ejemplo. Pero al basarse en modelos de IA como el de Yamins que ya resuelven tareas de reconocimiento de objetos, "Ahora podemos intentar modelar esa estructura espacial y hacer preguntas sobre por qué el cerebro está diseñado de esta manera y qué ventajas podría ofrecer a un organismo". "Dijo Margalit.
Cerrando el ciclo
También hay otros problemas que abordar, en particular, cómo aprenden los sistemas de inteligencia artificial. Ahora, La IA necesita mucho más entrenamiento, y mucho más entrenamiento explícito, que los humanos para poder desempeñarse también en tareas como el reconocimiento de objetos, aunque no está claro cómo los humanos tienen éxito con tan pocos datos.
Un segundo tema es cómo ir más allá de los modelos de visión y otros sistemas sensoriales. "Una vez que tenga una impresión sensorial del mundo, quieres tomar decisiones basadas en ello, ", Dijo Yamins." Estamos tratando de hacer modelos de toma de decisiones, aprender a tomar decisiones y cómo interactuar entre sistemas sensoriales, toma de decisiones y memoria ". Yamins está comenzando a abordar esas ideas con Kevin Feigelis, un estudiante de posgrado en física, que está construyendo modelos de IA que pueden aprender a resolver muchos tipos diferentes de problemas y cambiar entre tareas según sea necesario, algo que muy pocos sistemas de IA pueden hacer.
A la larga, Yamins y los otros miembros de su grupo dijeron que todos esos avances podrían alimentar sistemas de inteligencia artificial más capaces. al igual que la investigación en neurociencia anterior ayudó a fomentar el desarrollo del aprendizaje profundo. "Creo que la gente en inteligencia artificial se está dando cuenta de que hay ciertos objetivos próximos muy buenos para la inteligencia artificial inspirada cognitivamente". "Haber dijo, incluyendo sistemas como el suyo que aprenden explorando activamente sus mundos. "La gente está jugando con estas ideas".