• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    La inteligencia artificial se está volviendo tan inteligente,
    Lo necesitamos para mostrar su trabajo El pensamiento informático se está volviendo tan complejo que estamos empezando a perder de vista su razonamiento. ¿Cómo podemos asegurarnos de saber por qué la inteligencia artificial toma la decisión que toma? Imágenes de Chad Baker / Getty

    Si desea clasificar una gran cantidad de imágenes digitales, o clasificar cantidades abrumadoras de información escrita por tema, es mejor confiar en sistemas de inteligencia artificial (IA) llamados redes neuronales, que buscan patrones en los datos y se entrenan para hacer predicciones basadas en sus observaciones.

    Pero cuando se trata de campos de alto riesgo, como la información médica, donde el costo de cometer un error o una predicción incorrecta es potencialmente mortal, los seres humanos a veces somos reacios a confiar en las respuestas que ofrecen los programas. Eso es porque las redes neuronales utilizan el aprendizaje automático, en el que se entrenan a sí mismos sobre cómo resolver las cosas, y nuestros débiles cerebros de carne no pueden ver el proceso.

    Si bien los métodos de aprendizaje automático "son flexibles y generalmente dan como resultado predicciones precisas, revelan poco en términos humanos comprensibles sobre por qué se hace una predicción en particular, "dice Tommi Jaakkola, profesor de ingeniería eléctrica y ciencias de la computación en el Instituto de Tecnología de Massachusetts, vía correo electrónico.

    Piense en ello como el equivalente de aprendizaje automático a escribir sus problemas de matemáticas en una pizarra para mostrar su trabajo.

    Si es un paciente con cáncer que intenta elegir opciones de tratamiento basándose en predicciones de cómo podría progresar su enfermedad, o un inversor que intenta averiguar qué hacer con sus ahorros para la jubilación, confiar ciegamente en una máquina puede dar un poco de miedo, especialmente porque hemos enseñado a las máquinas a tomar decisiones, pero no tenemos una buena forma de observar exactamente cómo los están haciendo.

    Pero no tengas miedo. En un nuevo artículo científico, Jaakkola y otros investigadores del Instituto de Tecnología de Massachusetts han desarrollado un método para verificar las respuestas que las redes neuronales dan. Piense en ello como el equivalente de aprendizaje automático a escribir sus problemas de matemáticas en una pizarra para mostrar su trabajo.

    Como se detalla en un comunicado de prensa del MIT, Las redes neuronales de IA en realidad imitan la estructura del cerebro humano. Están compuestos por muchos nodos de procesamiento que, como nuestras neuronas, unen fuerzas y combinan su poder computacional para abordar problemas. En el proceso, participan en lo que los investigadores llaman "aprendizaje profundo, "pasar datos de entrenamiento de un nodo a otro, y luego correlacionarlo con cualquier tipo de clasificación que la red neuronal esté tratando de aprender a hacer. Los resultados se modifican continuamente para mejorar, casi de la misma manera que los humanos aprenden mediante ensayo y error a lo largo del tiempo.

    El gran problema es que incluso los informáticos que programan las redes no pueden ver realmente lo que sucede con los nodos. lo que ha dificultado la determinación de cómo las computadoras realmente toman sus decisiones.

    "No intentamos explicar el funcionamiento interno de un modelo complejo, "Jaakkola explica." En cambio, forzamos al modelo a operar de una manera que permita a un ser humano verificar fácilmente si la predicción se hizo sobre la base correcta ".

    "Nuestro método aprende a generar una justificación para cada predicción. Una justificación es un texto conciso, fácil de comprobar para un humano, solo eso es suficiente para hacer la misma predicción. Lograr esto, Dividimos la arquitectura general del modelo en dos componentes separables:generador y codificador. El generador selecciona un fundamento, como un fragmento de texto, y lo pasa al codificador para hacer una predicción. La combinación se aprende a trabajar en conjunto como predictor ".

    "Por lo tanto, aunque nuestro generador y codificador son en sí mismos métodos complejos de aprendizaje profundo, el modelo combinado se ve obligado a hacer su predicción de una manera que sea directamente verificable, ya que la predicción se basa en la justificación seleccionada, "escribe Jaakkola.

    En su papel los científicos se divirtieron usando su sistema para clasificar reseñas de un sitio web aficionado a la cerveza, basado en los atributos de las cervezas como el aroma, paladar y apariencia. "El conjunto de datos de revisión de cerveza ya tenía oraciones anotadas relacionadas con aspectos específicos de los productos, por lo que pudimos comparar directamente los fundamentos generados automáticamente con las selecciones humanas, "dice Jaakkola. En el experimento, encontraron que la red neuronal estaba de acuerdo con las anotaciones humanas entre el 80 y el 96 por ciento de las veces, dependiendo de cuán específica sea la característica.

    Eso es interesante

    Una de las formas clásicas de demostrar las capacidades de una red neuronal de IA es usarla para resolver el llamado problema del vendedor ambulante. y descubra la ruta más corta entre varias ciudades.

    © Ciencia https://es.scienceaq.com