• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • De un escáner cerebral, más información sobre inteligencia artificial médica

    Los investigadores del MIT han desarrollado un sistema que recopila muchos más datos de entrenamiento etiquetados a partir de datos no etiquetados, lo que podría ayudar a los modelos de aprendizaje automático a detectar mejor los patrones estructurales en los escáneres cerebrales asociados con enfermedades neurológicas. El sistema aprende variaciones estructurales y de apariencia en escaneos no etiquetados, y utiliza esa información para dar forma y moldear un escaneo etiquetado en miles de nuevos exploraciones etiquetadas distintas. Crédito:Amy Zhao / MIT

    Los investigadores del MIT han ideado un método novedoso para obtener más información de las imágenes utilizadas para entrenar modelos de aprendizaje automático. incluidos aquellos que pueden analizar exploraciones médicas para ayudar a diagnosticar y tratar afecciones cerebrales.

    Una nueva área activa en la medicina implica el entrenamiento de modelos de aprendizaje profundo para detectar patrones estructurales en escáneres cerebrales asociados con enfermedades y trastornos neurológicos. como la enfermedad de Alzheimer y la esclerosis múltiple. Pero recopilar los datos de entrenamiento es laborioso:todas las estructuras anatómicas en cada escaneo deben ser delineadas por separado o etiquetadas a mano por expertos en neurología. Y, en algunos casos, como para las enfermedades raras del cerebro en los niños, En primer lugar, solo algunos escaneos pueden estar disponibles.

    En un artículo presentado en la reciente Conferencia sobre Visión por Computador y Reconocimiento de Patrones, los investigadores del MIT describen un sistema que utiliza un solo escaneo etiquetado, junto con escaneos sin etiqueta, para sintetizar automáticamente un conjunto de datos masivo de distintos ejemplos de entrenamiento. El conjunto de datos se puede utilizar para entrenar mejor los modelos de aprendizaje automático para encontrar estructuras anatómicas en nuevos escaneos:cuantos más datos de entrenamiento, cuanto mejores sean esas predicciones.

    El meollo del trabajo es generar datos automáticamente para el proceso de "segmentación de imágenes", que divide una imagen en regiones de píxeles que son más significativas y más fáciles de analizar. Para hacerlo el sistema utiliza una red neuronal convolucional (CNN), un modelo de aprendizaje automático que se ha convertido en una potencia para las tareas de procesamiento de imágenes. La red analiza una gran cantidad de escaneos sin etiquetar de diferentes pacientes y diferentes equipos para "aprender" anatomía, brillo, y variaciones de contraste. Luego, aplica una combinación aleatoria de esas variaciones aprendidas a un solo escaneo etiquetado para sintetizar nuevos escaneos que son realistas y están etiquetados con precisión. Estos escaneos recién sintetizados se introducen en una CNN diferente que aprende a segmentar nuevas imágenes.

    "Esperamos que esto haga que la segmentación de imágenes sea más accesible en situaciones realistas en las que no tiene muchos datos de entrenamiento, "dice la primera autora Amy Zhao, estudiante de posgrado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) y el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL). "En nuestro enfoque, puede aprender a imitar las variaciones en los escaneos no etiquetados para sintetizar inteligentemente un gran conjunto de datos para entrenar su red ".

    Hay interés en utilizar el sistema por ejemplo, para ayudar a entrenar modelos de análisis predictivo en el Hospital General de Massachusetts, Zhao dice, donde solo pueden existir una o dos exploraciones etiquetadas de afecciones cerebrales particularmente infrecuentes entre los pacientes infantiles.

    Junto a Zhao en el papel están:Guha Balakrishnan, un postdoctorado en EECS y CSAIL; Los profesores de EECS Fredo Durand y John Guttag, y el autor principal Adrian Dalca, quien también es miembro de la facultad de radiología en la Escuela de Medicina de Harvard.

    La "magia" detrás del sistema

    Aunque ahora se aplica a las imágenes médicas, el sistema en realidad comenzó como un medio para sintetizar datos de entrenamiento para una aplicación de teléfono inteligente que podría identificar y recuperar información sobre tarjetas del popular juego de cartas coleccionables, "Magic:The Gathering". Lanzado a principios de la década de 1990, "Magic" tiene más de 20, 000 cartas únicas, y se lanzan más cada pocos meses, que los jugadores pueden usar para crear mazos de juego personalizados.

    Zhao, un ávido jugador de "Magic", quería desarrollar una aplicación impulsada por CNN que tomara una foto de cualquier tarjeta con la cámara de un teléfono inteligente y extrajera automáticamente información como el precio y la calificación de las bases de datos de tarjetas en línea. "Cuando estaba eligiendo cartas en una tienda de juegos, Me cansé de ingresar todos sus nombres en mi teléfono y buscar calificaciones y combinaciones, "Dice Zhao." ¿No sería fantástico si pudiera escanearlos con mi teléfono y obtener esa información? "

    Pero se dio cuenta de que es una tarea muy difícil de entrenamiento en visión por computadora. "Necesitarías muchas fotos de los 20 000 tarjetas, bajo todas las diferentes condiciones y ángulos de iluminación. Nadie va a recopilar ese conjunto de datos, "Dice Zhao.

    En lugar de, Zhao entrenó a una CNN en un conjunto de datos más pequeño de alrededor de 200 tarjetas, con 10 fotos distintas de cada tarjeta, para aprender a deformar una tarjeta en varias posiciones. Calculó una iluminación diferente, anglos, y reflexiones, para cuando las tarjetas se colocan en fundas de plástico, hasta versiones deformadas realistas sintetizadas de cualquier tarjeta en el conjunto de datos. Fue un proyecto apasionante y apasionante, Zhao dice:"Pero nos dimos cuenta de que este enfoque era muy adecuado para imágenes médicas, porque este tipo de deformación encaja muy bien con las resonancias magnéticas ".

    Mente deformada

    Las imágenes de resonancia magnética (IRM) se componen de píxeles tridimensionales, llamados voxels. Al segmentar las resonancias magnéticas, los expertos separan y etiquetan las regiones de vóxeles en función de la estructura anatómica que las contiene. La diversidad de escaneos, causada por variaciones en los cerebros individuales y el equipo utilizado, plantea un desafío al uso del aprendizaje automático para automatizar este proceso.

    Algunos métodos existentes pueden sintetizar ejemplos de entrenamiento a partir de escaneos etiquetados utilizando "aumento de datos, "que deforma los vóxeles etiquetados en diferentes posiciones. Pero estos métodos requieren que los expertos escriban a mano varias pautas de aumento, y algunos escaneos sintetizados no se parecen en nada a un cerebro humano realista, lo que puede ser perjudicial para el proceso de aprendizaje.

    En lugar de, El sistema de los investigadores aprende automáticamente a sintetizar escaneos realistas. Los investigadores entrenaron su sistema en 100 escaneos no etiquetados de pacientes reales para calcular transformaciones espaciales:correspondencias anatómicas de un escaneo a otro. Esto generó tantos "campos de flujo, "que modelan cómo los vóxeles se mueven de un escaneo a otro. Simultáneamente, calcula transformaciones de intensidad, que capturan las variaciones de apariencia causadas por el contraste de la imagen, ruido, y otros factores.

    Al generar un nuevo escaneo, el sistema aplica un campo de flujo aleatorio al escaneo etiquetado original, que cambia alrededor de los vóxeles hasta que coincide estructuralmente con un real, escaneo sin etiqueta. Luego, superpone una transformación de intensidad aleatoria. Finalmente, el sistema asigna las etiquetas a las nuevas estructuras, siguiendo cómo se movían los vóxeles en el campo de flujo. En el final, los escaneos sintetizados se parecen mucho a los reales, escaneos sin etiqueta, pero con etiquetas precisas.

    Para probar su precisión de segmentación automatizada, los investigadores utilizaron puntuaciones de Dice, que miden qué tan bien encaja una forma tridimensional sobre otra, en una escala de 0 a 1. Compararon su sistema con los métodos de segmentación tradicionales, manuales y automatizados, en 30 estructuras cerebrales diferentes en 100 exploraciones de prueba retenidas. Las grandes estructuras fueron comparativamente precisas entre todos los métodos. Pero el sistema de los investigadores superó a todos los demás enfoques en estructuras más pequeñas, como el hipocampo, que ocupa sólo alrededor del 0,6 por ciento de un cerebro, por volumen.

    "Eso demuestra que nuestro método mejora con respecto a otros métodos, especialmente a medida que te adentras en las estructuras más pequeñas, que puede ser muy importante para comprender la enfermedad, "Dice Zhao." Y lo hicimos mientras solo necesitábamos un escaneo etiquetado a mano ".

    Esta historia se vuelve a publicar por cortesía de MIT News (web.mit.edu/newsoffice/), un sitio popular que cubre noticias sobre la investigación del MIT, innovación y docencia.




    © Ciencia https://es.scienceaq.com