Google AI presenta ‘SegCLR’, una técnica de aprendizaje automático autosupervisado que produce representaciones altamente informativas de células directamente a partir de segmentaciones e imágenes de microscopio electrónico 3D

Estás leyendo la publicación: Google AI presenta ‘SegCLR’, una técnica de aprendizaje automático autosupervisado que produce representaciones altamente informativas de células directamente a partir de segmentaciones e imágenes de microscopio electrónico 3D

Si podemos analizar la organización de los circuitos neuronales, jugará un papel crucial para comprender mejor el proceso del pensamiento. Es donde entran en juego los mapas. Los mapas del sistema nervioso contienen información sobre la identidad de las células individuales, como su tipo, componente subcelular y conectividad de las neuronas.

Pero, ¿cómo obtenemos estos mapas?

Imágenes volumétricas de resolución nanométrica de tejido cerebral es una técnica que proporciona los datos en bruto necesarios para construir estos mapas. Pero inferir toda la información relevante es una tarea laboriosa y desafiante debido a las múltiples escalas de las estructuras cerebrales (p. ej., nm para una sinapsis frente a mm para un axón). Requiere horas de etiquetado manual de la verdad del terreno por parte de anotadores expertos.

Sin embargo, algunos métodos de visión por computadora y aprendizaje automático ayudan en estas anotaciones, pero no son muy confiables y necesitan revisión de las anotaciones finales de la verdad del terreno. Además, tareas como la identificación del tipo de célula a partir de un fragmento de neurona muy pequeño son un desafío incluso para los expertos humanos.

Para automatizar aún más esta tarea y abordar los problemas mencionados anteriormente, los autores de este artículo propusieron una técnica de aprendizaje automático autosupervisado, “SegCLR”, que significa Aprendizaje contrastivo de representaciones guiado por segmentación. SegCLR toma un volumen 3d de VEM como entrada y produce una incrustación como salida.

El enfoque propuesto es escalable en tres aspectos importantes:

  1. La incrustación producida se puede utilizar para diferentes tareas, como la identificación de subcompartimentos celulares, tipos de células, etc.
  2. La representación aprendida por SegCLR es muy compacta. Se puede usar directamente en análisis posteriores con clasificadores lineales o redes poco profundas, lo que elimina la necesidad de entrenar un modelo grande repetidamente para aprender representaciones para cada nueva tarea.
  3. Además, SegCLR reduce la necesidad de datos de verdad del terreno etiquetados en un orden de magnitud de 4.
🔥 Recomendado:  ¿Qué son las teclas de pudín? Características, recomendaciones, imágenes de antes y después

Además, SegCLR permite la anotación fiable de células incluso a partir de fragmentos muy cortos (~10-50 μm) de células corticales. Al final, los autores también demostraron que SegCLR podría combinarse con procesos gaussianos para estimar la incertidumbre en las predicciones.

Hablemos un rato de la historia de la anotación del neuropilo. En el pasado, los métodos de aprendizaje automático usaban funciones diseñadas a mano o derivadas del aprendizaje supervisado. Un clasificador de bosque aleatorio entrenado en características derivadas de la mano y una red convolucional 2d entrenada en proyecciones de neuropil o convolucional 3d entrenada directamente en vóxeles.

¿Qué está haciendo SegCLR?

SegCLR produce incrustaciones: que son ricas características biológicas en un espacio de baja dimensión. Las incrustaciones producidas también tienen la cualidad de aprendizaje contrastivo, lo que significa mapas de distancia vectorial a la distinción biológica. Ahora, varias tareas posteriores pueden usar estas incrustaciones.

La incrustación de SegCLR representa una vista 3D local de los datos de EM, y se enfoca en una célula individual o fragmento de célula dentro del neuropilo con una segmentación que la acompaña.

Se entrena un codificador basado en ResNet-18 para producir incrustaciones de 64 dimensiones mientras usa una función de pérdida contrastiva como función de costo y un cabezal de proyección, lo que reduce aún más las dimensiones de la incrustación de 64 a 16 (ver fig. 1). El codificador ha sido entrenado en dos conjuntos de datos conectómicos EM disponibles públicamente; uno es de la corteza temporal humana y el otro es de la corteza temporal de un ratón. Ahora, el codificador entrenado y las incrustaciones producidas se utilizan para las siguientes tareas posteriores:

  1. Clasificación de subcompartimentos celulares: implica identificar subcompartimentos celulares como axones, dendritas y somas. Un clasificador lineal entrenado en las incrustaciones del conjunto de datos corticales humanos logró una puntuación F1 de 0,988. Mientras que en el conjunto de datos del ratón, la clasificación alcanzó una puntuación F1 media de 0,958. El clasificador iguala el rendimiento del modelo Supervisado directo que requiere aproximadamente 4000 veces menos ejemplos de entrenamiento etiquetados y lo supera cuando se entrena con datos completos (ver fig. 2).
🔥 Recomendado:  Los 14 mejores veterinarios baratos cerca de mí: ¡ahorre en el cuidado de su mascota hoy!
  1. Clasificación del subtipo de neurona y glía para fragmentos de células grandes y pequeñas: es muy similar a la clasificación de subcompartimentos celulares, pero las incrustaciones de SegCLR individuales representan una vista local en 3D del lado 4-5 micrómetros solamente, que no es suficiente para la tipificación celular. Para contrarrestar este autor, propuso una técnica para agregar información de incrustación en extensiones espaciales más grandes al recopilar incrustaciones cercanas dentro del radio R y luego tomar el valor medio de incrustación sobre cada característica. Después de varios experimentos, para el conjunto de datos humanos, el clasificador logró una puntuación F1 de 0,938 para R=10 μm para seis clases; para el conjunto de datos del ratón, el F1-Score es 0,748 para R=25 μm para 13 clases.
  2. Exploración de datos no supervisada: las proyecciones UMAP se utilizan para visualizar muestras de incrustación, y se observan fácilmente grupos separados en el espacio UMAP para glía versus neuronas y axones, dendritas y somas (ver fig. 3)
  1. Detección de entrada fuera de distribución a través de procesos gaussianos: el problema restante con todas estas aplicaciones era qué sucede si el contenido de la imagen queda fuera de la distribución de datos de entrenamiento. ¿Cómo podemos cuantificar qué tan lejos está una imagen dada de los datos del tren? Para resolver esto, el autor usó Neural Gaussian espectral normalizado, que agregó una incertidumbre de predicción a la salida del modelo y calibró esa incertidumbre para reflejar la distancia entre los datos de prueba y la distribución de entrenamiento. Esta calibración de incertidumbre permite rechazar las entradas OOD en lugar de clasificaciones ambiguas. Podemos establecer un umbral apropiado sobre la incertidumbre para una tarea dada.
🔥 Recomendado:  ByteDance AI Research propone un nuevo marco de aprendizaje autosupervisado para crear avatares 3D estilizados de alta calidad con una combinación de parámetros continuos y discretos

En conclusión, SegCLR captura ricas funciones celulares y puede simplificar en gran medida los análisis posteriores en comparación con el trabajo directo con imágenes sin procesar y datos de segmentación. Sin embargo, SegCLR tiene dos limitaciones importantes además de requerir la segmentación de instancias para voxel. En primer lugar, la resolución de vóxel de 32-40 nm de las vistas de entrada dificulta la captura de ultraestructuras EM más finas, como vesículas, subtipos o estructuras de microtúbulos ciliares. En segundo lugar, el enmascaramiento de entrada excluye el contexto fuera del segmento actual, lo que puede ser útil en casos de segmentación y clasificación.

La aplicación más poderosa de SegCLR demostrada en el documento es clasificar los subtipos neuronales y gliales incluso a partir de pequeños fragmentos, lo cual es una tarea desafiante incluso para los expertos humanos.