• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El entrenamiento físico es el próximo obstáculo para la inteligencia artificial, dice un investigador

    Crédito:Pixabay/CC0 Dominio público

    Deja que un millón de monos golpeteen un millón de máquinas de escribir durante un millón de años y, dice el adagio, reproducirán las obras de Shakespeare. Dele a los monos infinitos tiempo infinito, y aún así no apreciarán el giro poético de la frase del bardo, incluso si pueden escribir las palabras. Lo mismo ocurre con la inteligencia artificial (IA), según Michael Woolridge, profesor de informática en la Universidad de Oxford. El problema, dijo, no es el poder de procesamiento, sino la falta de experiencia.

    Su perspectiva se publicó el 25 de julio en Intelligent Computing .

    "Durante los últimos 15 años, la velocidad del progreso en la IA en general, y el aprendizaje automático (ML) en particular, ha tomado repetidamente por sorpresa a los comentaristas de IA experimentados como yo:hemos tenido que recalibrar continuamente nuestras expectativas en cuanto a lo que va a suceder". sea ​​posible y cuándo", dijo Wooldridge.

    "A pesar de que sus logros son dignos de elogio, creo que hay un aspecto crucial en el que la mayoría de los modelos grandes de ML están muy restringidos:el mundo y el hecho de que los modelos simplemente no tienen experiencia en él".

    La mayoría de los modelos de ML están construidos en mundos virtuales, como los videojuegos. Pueden capacitarse en conjuntos de datos masivos, pero para las aplicaciones físicas, les falta información vital. Wooldridge señaló como ejemplo la IA que sustenta a los vehículos autónomos.

    "Dejar que los autos sin conductor anden sueltos por las carreteras para que aprendan por sí mismos es imposible, así que por esta y otras razones, los investigadores eligen construir sus modelos en mundos virtuales", dijo Wooldridge. "Y de esta manera, nos estamos entusiasmando con una generación de sistemas de IA que simplemente no tienen la capacidad de operar en el entorno más importante de todos:nuestro mundo".

    Los modelos de IA de lenguaje, por otro lado, se desarrollan sin la pretensión de un mundo en absoluto, pero aún sufren las mismas limitaciones. Han evolucionado, por así decirlo, desde textos predictivos ridículamente terribles hasta LaMDA de Google, que llegó a los titulares a principios de este año cuando un ex ingeniero de Google afirmó que la IA era inteligente.

    "Cualquiera que sea la validez de las conclusiones [del ingeniero], estaba claro que estaba profundamente impresionado por la capacidad de conversación de LaMDA, y por una buena razón", dijo Wooldridge, y señaló que él personalmente no cree que LaMDA sea consciente, ni que la IA esté cerca de tal una milla.

    "Estos modelos fundamentales demuestran capacidades sin precedentes en la generación de lenguaje natural, produciendo fragmentos extensos de texto con un sonido natural. También parecen haber adquirido cierta competencia en el razonamiento de sentido común, uno de los santos griales de la investigación de IA en los últimos 60 años".

    Dichos modelos son redes neuronales, que se alimentan de enormes conjuntos de datos y se entrenan para comprenderlos. Por ejemplo, GPT-3, un predecesor de LaMDA, se entrenó en todo el texto en inglés disponible en Internet. La cantidad de datos de entrenamiento combinados con un poder de cómputo significativo hace que los modelos sean similares a los cerebros humanos, donde pasan de tareas limitadas para comenzar a reconocer patrones y hacer conexiones que aparentemente no están relacionadas con la tarea principal.

    "La apuesta con los modelos de base es que su formación extensa y amplia conduce a competencias útiles en una variedad de áreas, que luego pueden especializarse para aplicaciones específicas", dijo Wooldridge. "Mientras que la IA simbólica se basó en el supuesto de que la inteligencia es principalmente un problema de conocimiento, los modelos básicos se basan en el supuesto de que la inteligencia es principalmente un problema de datos. Para simplificar, pero no mucho, arroje suficientes datos de entrenamiento en modelos grandes, y, con suerte, surgirá la competencia".

    Este enfoque de "podría ser correcto" amplía los modelos para producir una IA más inteligente, argumentó Wooldridge, pero esto ignora el conocimiento físico necesario para realmente avanzar en la IA.

    "Para ser justos, hay algunas señales de que esto está cambiando", dijo Wooldridge, señalando el sistema Gato. Anunciado en mayo por DeepMind, el modelo base, entrenado en grandes conjuntos de lenguajes y datos robóticos, podría operar en un entorno simple pero físico.

    "Es maravilloso ver los primeros pasos de bebé que dan los modelos básicos en el mundo físico. Pero son solo pasos de bebé:los desafíos que se deben superar para hacer que la IA funcione en nuestro mundo son al menos tan grandes, y probablemente más grandes, que los que enfrentan. haciendo que la IA funcione en entornos simulados". + Explora más

    Un ingeniero de software de Google cree que una IA se ha vuelto sensible. Si tiene razón, ¿cómo lo sabríamos?




    © Ciencia https://es.scienceaq.com