La ciencia de los materiales permite tecnologías de vanguardia, desde automóviles livianos y computadoras potentes hasta baterías de alta capacidad y naves espaciales duraderas. Pero para desarrollar materiales para estas aplicaciones, es necesario analizarlos con precisión a través de numerosas lentes microscópicas, un proceso difícil y que requiere mucho tiempo.
Un nuevo modelo de inteligencia artificial (IA) desarrollado en el Laboratorio Nacional del Noroeste del Pacífico (PNNL) puede identificar patrones en imágenes de materiales mediante microscopio electrónico sin requerir intervención humana, lo que permite una ciencia de materiales más precisa y consistente. También elimina una barrera para la experimentación autónoma con microscopios electrónicos, un componente importante de los llamados "laboratorios autónomos".
"Hacemos muchas ciencias de materiales diferentes en el laboratorio, ya sea desarrollando nuevos materiales para catalizadores, almacenamiento de energía o electrónica", dijo Steven Spurgeon, científico senior de materiales en PNNL que ha estado trabajando para aplicar la IA en la ciencia de materiales durante muchos años. .
"También trabajamos mucho para comprender cómo evolucionan los materiales en diferentes entornos. Si colocas, por ejemplo, sensores en un reactor nuclear o una nave espacial, quedarán expuestos a entornos de alta radiación, lo que provocará una degradación en el tiempo. tiempo."
Comprender esa degradación, a su vez, ayuda a los investigadores a diseñar mejores materiales.
Normalmente, para entrenar un modelo de IA para comprender un fenómeno como el daño por radiación, los investigadores producirían minuciosamente un conjunto de datos de entrenamiento etiquetados a mano, rastreando manualmente las regiones dañadas por la radiación en imágenes de microscopio electrónico. Ese conjunto de datos etiquetados manualmente se usaría para entrenar un modelo de IA, que identificaría las características compartidas de esas regiones identificadas por humanos y buscaría identificar regiones similares en imágenes sin etiquetar.
Etiquetar conjuntos de datos a mano no es lo ideal. Es un proceso que requiere mucho tiempo, pero además, los humanos son más propensos a tener inconsistencias e imprecisiones en su etiquetado, y no son tan buenos para considerar simultáneamente (y etiquetar de manera imparcial) diferentes lentes (modalidades) de la misma muestra.
"Normalmente, el ser humano hace evaluaciones subjetivas de los datos", dijo Spurgeon. "Y simplemente no podemos hacer eso con los tipos de hardware que estamos construyendo ahora".
El uso de datos etiquetados también requiere un ser humano "al tanto", pausando el proceso de experimentación mientras los humanos interpretan o etiquetan los datos de una nueva imagen de microscopio electrónico.
La solución:un modelo no supervisado que sea capaz de analizar los datos sin involucrar a humanos.
Quitar las ruedas de apoyo
"Lo que queríamos hacer es idear un enfoque no supervisado para clasificar las imágenes del microscopio electrónico", dijo Arman Ter-Petrosyan, investigador asociado del PNNL. "Y más allá del problema básico de la clasificación, queríamos encontrar formas de utilizar estos modelos para describir diferentes interfaces de materiales".
El equipo comenzó con el modelo de IA ResNet50 y un conjunto de datos preexistente de más de 100.000 imágenes de microscopía electrónica sin etiquetar llamado MicroNet. Utilizando eso como base, le enseñaron al modelo a dividir cada imagen de microscopio electrónico en una cuadrícula de pequeños "chips", luego le indicaron que calculara las similitudes generales entre los chips y les asignara puntuaciones de similitud entre sí. Los grupos de chips más similares entre sí se clasifican en "comunidades" que representan partes de la imagen con características comparables.
El resultado es una representación abstracta de patrones en los datos que luego sus respectivas comunidades pueden dispersar en las imágenes del microscopio electrónico y las regiones codificadas por colores, todo sin necesidad de que un humano le diga al modelo qué buscar.
Los investigadores han estado aplicando el nuevo modelo para comprender el daño por radiación en materiales que se utilizan en entornos de alta radiación como los reactores nucleares. El modelo es capaz de "cortar" con precisión las áreas degradadas y clasificar la imagen en comunidades que representan diferentes niveles de daño por radiación.
"Esta es una forma de tomar los datos y representar las relaciones entre áreas que no están necesariamente una al lado de la otra en el material", explicó Ter-Petrosyan.
La belleza del modelo, explicaron los investigadores, es que identifica estas comunidades con extraordinaria consistencia, produciendo las regiones delineadas de datos etiquetados sin ninguna de las desviaciones mercuriales del etiquetado humano. Esto es útil no sólo para evaluar una imagen sino también para establecer métricas objetivas para describir diferentes estados de los materiales.
"Tengo un material perfecto; lo irradio; comienza a descomponerse", dijo Spurgeon. "¿Cómo describo ese proceso para poder diseñar mejor ese material para una aplicación en particular? Nuestro problema es que tenemos los datos (los hemos tenido durante mucho tiempo) y podemos recopilarlos de forma rutinaria, pero no lo usaremos para publicar esos descriptores."
Más información: Arman H Ter-Petrosyan et al, Segmentación no supervisada de transiciones de fase de desorden de orden inducidas por irradiación en microscopía electrónica, arXiv (2023). DOI:10.48550/arxiv.2311.08585
Información de la revista: arXiv
Proporcionado por el Laboratorio Nacional del Noroeste del Pacífico