• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Física
    Los físicos de partículas se asocian con la inteligencia artificial para resolver los problemas científicos más difíciles

    Crédito:CC0 Public Domain

    Experimentos en el Gran Colisionador de Hadrones (LHC), el acelerador de partículas más grande del mundo en el laboratorio europeo de física de partículas CERN, producir alrededor de un millón de gigabytes de datos por segundo. Incluso después de la reducción y compresión, los datos acumulados en solo una hora son similares al volumen de datos que Facebook recopila en todo un año:demasiado para almacenar y analizar.

    Afortunadamente, Los físicos de partículas no tienen que lidiar con todos esos datos por sí mismos. Se asocian con una forma de inteligencia artificial llamada aprendizaje automático que aprende a realizar análisis complejos por sí misma.

    Un grupo de investigadores, incluidos científicos del Laboratorio Nacional Acelerador SLAC del Departamento de Energía y del Laboratorio Nacional Acelerador Fermi, resumir las aplicaciones actuales y las perspectivas futuras del aprendizaje automático en la física de partículas en un artículo publicado hoy en Naturaleza .

    "En comparación con un algoritmo informático tradicional que diseñamos para realizar un análisis específico, diseñamos un algoritmo de aprendizaje automático para descubrir por sí mismo cómo realizar varios análisis, potencialmente nos ahorra innumerables horas de trabajo de diseño y análisis, "dice el coautor Alexander Radovic del College of William &Mary, que trabaja en el experimento de neutrinos NOvA.

    Examinando big data

    Para manejar los gigantescos volúmenes de datos producidos en experimentos modernos como los del LHC, los investigadores aplican lo que ellos llaman "disparadores":hardware y software dedicados que deciden en tiempo real qué datos conservar para el análisis y qué datos desechar.

    En LHCb, un experimento que podría arrojar luz sobre por qué hay mucha más materia que antimateria en el universo, Los algoritmos de aprendizaje automático toman al menos el 70 por ciento de estas decisiones, dice el científico del LHCb Mike Williams del Instituto de Tecnología de Massachusetts, uno de los autores del resumen de Nature. "El aprendizaje automático juega un papel en casi todos los aspectos de datos del experimento, desde los disparadores hasta el análisis de los datos restantes, " él dice.

    El aprendizaje automático ha demostrado ser un gran éxito en el área de análisis. Los gigantescos detectores ATLAS y CMS del LHC, que permitió el descubrimiento del bosón de Higgs, cada uno tiene millones de elementos de detección cuyas señales deben combinarse para obtener resultados significativos.

    "Estas señales forman un espacio de datos complejo, "dice Michael Kagan de SLAC, que trabaja en ATLAS y también fue autor de la revista Nature. "Necesitamos comprender la relación entre ellos para llegar a conclusiones, por ejemplo, que una determinada pista de partículas en el detector fue producida por un electrón, un fotón o algo más ".

    Los experimentos con neutrinos también se benefician del aprendizaje automático. Estrella nueva, gestionado por Fermilab, estudia cómo los neutrinos cambian de un tipo a otro a medida que viajan por la Tierra. Estas oscilaciones de neutrinos podrían potencialmente revelar la existencia de un nuevo tipo de neutrino que algunas teorías predicen que será una partícula de materia oscura. Los detectores de NOvA están atentos a las partículas cargadas que se producen cuando los neutrinos golpean el material del detector, y los algoritmos de aprendizaje automático los identifican.

    Del aprendizaje automático al aprendizaje profundo

    Desarrollos recientes en aprendizaje automático, a menudo llamado "aprendizaje profundo, "prometen llevar aún más lejos las aplicaciones de la física de partículas. El aprendizaje profundo generalmente se refiere al uso de redes neuronales:algoritmos informáticos con una arquitectura inspirada en la densa red de neuronas del cerebro humano.

    Estas redes neuronales aprenden por sí mismas cómo realizar determinadas tareas de análisis durante un período de entrenamiento en el que se les muestran datos de muestra, como simulaciones, y les dijo lo bien que se desempeñaron.

    Hasta hace poco, el éxito de las redes neuronales fue limitado porque entrenarlas solía ser muy difícil, dice el coautor Kazuhiro Terao, un investigador de SLAC que trabaja en el experimento de neutrinos MicroBooNE, que estudia las oscilaciones de neutrinos como parte del programa de neutrinos de línea de base corta de Fermilab y se convertirá en un componente del futuro Experimento de neutrinos subterráneos profundos (DUNE) en la Instalación de neutrinos de línea de base larga (LBNF). "Estas dificultades nos limitaron a redes neuronales que tenían solo un par de capas de profundidad, ", dice." Gracias a los avances en algoritmos y hardware informático, ahora sabemos mucho mejor cómo construir y entrenar redes más capaces de cientos o miles de capas de profundidad ".

    Muchos de los avances en el aprendizaje profundo están impulsados ​​por las aplicaciones comerciales de los gigantes tecnológicos y la explosión de datos que han generado en las últimas dos décadas. "Estrella nueva, por ejemplo, utiliza una red neuronal inspirada en la arquitectura de GoogleNet, "Dice Radovic." Mejoró el experimento en formas que de otra manera sólo se podrían haber logrado mediante la recopilación de un 30 por ciento más de datos ".

    Un terreno fértil para la innovación

    Los algoritmos de aprendizaje automático se vuelven más sofisticados y afinados día a día, abriendo oportunidades sin precedentes para resolver problemas de física de partículas.

    Muchas de las nuevas tareas para las que podrían utilizarse están relacionadas con la visión por computadora, Dice Kagan. "Es similar al reconocimiento facial, excepto que en física de partículas, los rasgos de la imagen son más abstractos que los oídos y las narices ".

    Algunos experimentos como NOvA y MicroBooNE producen datos que se traducen fácilmente en imágenes reales, y la IA se puede utilizar fácilmente para identificar características en ellos. En los experimentos del LHC, por otra parte, las imágenes primero deben reconstruirse a partir de un grupo turbio de datos generados por millones de elementos sensores.

    "Pero incluso si los datos no parecen imágenes, aún podemos usar métodos de visión por computadora si somos capaces de procesar los datos de la manera correcta, "Dice Radovic.

    Un área donde este enfoque podría ser muy útil es el análisis de chorros de partículas producidos en grandes cantidades en el LHC. Los chorros son aerosoles estrechos de partículas cuyas pistas individuales son extremadamente difíciles de separar. La tecnología de visión por computadora podría ayudar a identificar características en aviones.

    Otra aplicación emergente del aprendizaje profundo es la simulación de datos de física de partículas que predicen, por ejemplo, lo que sucede en las colisiones de partículas en el LHC y se puede comparar con los datos reales. Simulaciones como estas suelen ser lentas y requieren una inmensa potencia informática. AI, por otra parte, podría hacer simulaciones mucho más rápido, potencialmente complementando el enfoque tradicional.

    "Hace solo unos años, nadie hubiera pensado que las redes neuronales profundas se pueden entrenar para 'alucinar' datos a partir de ruido aleatorio, ", Dice Kagan." Aunque este es un trabajo muy temprano, es muy prometedor y puede ayudar con los desafíos de datos del futuro ".

    Beneficiarse del escepticismo saludable

    A pesar de todos los avances obvios, Los entusiastas del aprendizaje automático se enfrentan con frecuencia al escepticismo de sus socios de colaboración, en parte porque los algoritmos de aprendizaje automático funcionan principalmente como "cajas negras" que proporcionan muy poca información sobre cómo llegaron a una determinada conclusión.

    "El escepticismo es muy saludable, "Dice Williams." Si usa el aprendizaje automático para los activadores que descartan datos, como lo hacemos en LHCb, entonces querrás ser extremadamente cauteloso y poner el listón muy alto ".

    Por lo tanto, Establecer el aprendizaje automático en la física de partículas requiere esfuerzos constantes para comprender mejor el funcionamiento interno de los algoritmos y realizar verificaciones cruzadas con datos reales siempre que sea posible.

    "Siempre debemos intentar comprender lo que hace un algoritmo informático y siempre evaluar su resultado, ", Dice Terao." Esto es cierto para todos los algoritmos, no solo aprendizaje automático. Entonces, ser escéptico no debería detener el progreso ".

    El rápido progreso hace que algunos investigadores sueñen con lo que podría ser posible en un futuro próximo. "En la actualidad, utilizamos el aprendizaje automático principalmente para encontrar funciones en nuestros datos que puedan ayudarnos a responder algunas de nuestras preguntas, "Dice Terao." Dentro de diez años, Los algoritmos de aprendizaje automático pueden hacer sus propias preguntas de forma independiente y reconocer cuándo encuentran nueva física ".

    © Ciencia https://es.scienceaq.com