Estás leyendo la publicación: Investigadores de George Mason y la Universidad de Emory desarrollan ‘RES’: un marco robusto de Python para aprender a explicar las DNN (redes neuronales profundas) con supervisión de explicación
El estudio sobre explicabilidad o IA explicable actualmente está recibiendo mucha atención a medida que los DNN se vuelven accesibles en una variedad de dominios de aplicación. En un esfuerzo por abra la caja negra de DNN.
Si bien las técnicas de explicación locales han experimentado un rápido crecimiento en la investigación en los últimos años, la mayor parte de la atención se ha puesto en manejar la generación de explicaciones en lugar de comprender si las explicaciones son precisas o razonables, qué hacer si lo son y cómo modificarlas. el modelo para producir explicaciones más precisas o razonables.
Las estrategias de supervisión de explicación, que ayudan a los constructores de modelos a mejorar sus modelos mediante la utilización de señales de supervisión obtenidas de los procedimientos de explicación, acaban de comenzar a demostrar algunos resultados prometedores. Las implicaciones incluyen mejorar la interpretabilidad intrínseca y la generalización de los DNN en una variedad de formatos de datos donde se pueden proporcionar etiquetas de anotación humana correctas para cada característica de datos.
Los datos de texto y los datos atribuidos son ejemplos de estos tipos de datos. Sin embargo, todavía faltan estudios sobre la gestión de explicaciones en datos de imágenes, donde la explicación se visualiza utilizando mapas de prominencia. La inexactitud del límite de la explicación humana y la incompletitud de la región de la explicación humana son solo algunas de las dificultades inherentes que surgen con la regulación de las explicaciones visuales.
En un artículo reciente, investigadores de la Universidad George Mason y la Universidad de Emory sugirieron un paradigma general para enseñar a las DNN a explicarse a sí mismas bajo la supervisión de la explicación. El grupo presentó un marco unificador que permite la supervisión de explicaciones en DNN con etiquetas para explicaciones tanto positivas como negativas y que puede usarse con las muchas técnicas de explicación diferenciable que se usan actualmente.
Los investigadores crearon un objetivo de modelo robusto que puede gestionar la señal de supervisión de etiquetas de anotaciones humanas ruidosas. Para usar las ruidosas etiquetas de anotaciones humanas como señal de supervisión, sugirieron una nueva pérdida de explicación robusta que puede manejar los desafíos de un borde impreciso, una región incompleta, así como una distribución inconsistente. Los investigadores han establecido un límite superior para el error de generalización de usar la pérdida de explicación robusta sugerida para entrenar los modelos DNN de la columna vertebral utilizando un teorema formal.
El grupo llevó a cabo extensos análisis cuantitativos y cualitativos experimentales para confirmar la eficacia del paradigma sugerido. Numerosas pruebas que utilizaron dos conjuntos de datos de imágenes del mundo real para el reconocimiento de escenas y la categorización de género mostraron que el marco sugerido aumentó significativamente la previsibilidad y la explicabilidad de los DNN básicos. Además, se ofrecieron evaluaciones cualitativas para mostrar cuán efectivo es el marco sugerido a través de estudios de casos y estudios de usuarios de la explicación del modelo.
Conclusión
Investigadores de la Universidad George Mason y la Universidad de Emory colaboraron recientemente para desarrollar un objetivo de modelo de explicación novedoso que puede manejar las ruidosas etiquetas de anotaciones humanas como señal de supervisión con una justificación teórica del beneficio para la generalización del modelo. Este trabajo se publicó como un artículo reciente que proponía un marco genérico para la supervisión de la explicación visual. Las pruebas exhaustivas en dos conjuntos de datos de imágenes del mundo real muestran cómo el marco propuesto mejora el rendimiento del modelo DNN de la columna vertebral, así como la explicabilidad de la explicación. Los estudios han demostrado la efectividad del marco RES sugerido en un número bastante pequeño de muestras de entrenamiento, aunque los datos adicionales de las etiquetas de explicación humana pueden no estar fácilmente disponibles. Esto podría ser ventajoso para los dominios de aplicación donde las muestras de datos son escasas y difíciles de obtener.
Este artículo está escrito como un artículo resumido por el personal de Marktechpost basado en el documento ‘RES: un marco robusto para guiar la explicación visual‘. Todo el crédito de esta investigación es para los investigadores de este proyecto. Revisar la papel y github.
Por favor no olvides unirte Nuestro subreddit de ML
Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools