Investigadores del MIT desarrollaron herramientas para ayudar a los científicos de datos a hacer que las funciones utilizadas en los modelos de aprendizaje automático sean más comprensibles para los usuarios finales

Estás leyendo la publicación: Investigadores del MIT desarrollaron herramientas para ayudar a los científicos de datos a hacer que las funciones utilizadas en los modelos de aprendizaje automático sean más comprensibles para los usuarios finales

Es bien sabido que los modelos de aprendizaje automático se destacan en una amplia gama de tareas. Generar confianza en el proceso de IA requiere comprender cómo funcionan estos modelos. Sin embargo, los investigadores aún no entienden claramente cómo los modelos AI/ML usan aspectos particulares o llegan a ciertas conclusiones debido a la complejidad de las funciones y los algoritmos utilizados para entrenar estos modelos.

Una investigación reciente del equipo del MIT crea una taxonomía para ayudar a los desarrolladores de todos los lugares a crear funciones que sean más fáciles de entender para su público objetivo. En su artículo, “La necesidad de características interpretables: motivación y taxonomía”, identifican las propiedades que hacen que las características sean más interpretables para crear la taxonomía. Hicieron esto para cinco tipos de usuarios diferentes, desde profesionales de inteligencia artificial hasta aquellos a quienes puede afectar la predicción de un modelo de aprendizaje automático. También ofrecen consejos sobre cómo los desarrolladores pueden hacer que las funciones sean más accesibles para el público en general.

Los modelos de aprendizaje automático utilizan funciones como variables de entrada. Las características a menudo se eligen para garantizar una mayor precisión del modelo en lugar de si un tomador de decisiones puede interpretarlas.

El equipo descubrió que algunas características, como la tendencia de la frecuencia cardíaca de un paciente a lo largo del tiempo, se presentaban como valores agregados mediante modelos de aprendizaje automático utilizados para predecir el riesgo de que un paciente experimente complicaciones después de una cirugía cardíaca. Los médicos desconocían cómo se calculaban las características obtenidas de esta manera, a pesar de estar “listos para el modelo”.

🔥 Recomendado:  Revisión de Opinion Outpost: una mirada a las características, los pagos y las preocupaciones

Por el contrario, muchos científicos valoraron las características agregadas. Por ejemplo, en lugar de una característica como “número de publicaciones que un estudiante hizo en los foros de discusión”, prefieren agregar características relevantes y etiquetarlas con palabras que reconocen, como “participación”.

Su investigador principal afirma que hay muchos niveles de interpretabilidad, y este es un factor importante detrás de su trabajo. Detallan qué características son probablemente las más significativas para usuarios particulares y especifican características que pueden hacer que las características sean más o menos interpretables para varios tomadores de decisiones.

Por ejemplo, los desarrolladores de aprendizaje automático pueden priorizar funciones predictivas y compatibles, mejorando el rendimiento del modelo. Por otro lado, muchos valoran las características de la palabra humana (que se describen de forma natural para los usuarios) que son comprensibles y se adaptan mejor a los responsables de la toma de decisiones sin experiencia previa con el aprendizaje automático.

Al crear funciones interpretables, es importante comprender hasta qué nivel son interpretables. Según ellos, dependiendo del dominio, es posible que no se necesiten todos los niveles.

Los investigadores también proponen metodologías de ingeniería de funciones que los desarrolladores pueden utilizar para hacer que las funciones sean más comprensibles para una determinada audiencia.

Para que los modelos de aprendizaje automático procesen los datos, los científicos de datos utilizan técnicas de agregación y normalización. En muchos casos, es casi imposible para la persona promedio interpretar estos cambios. Además, la mayoría de los modelos no pueden procesar datos categóricos sin transformarlos primero en un código numérico.

Señalan que puede ser necesario deshacer parte de esa codificación para producir características interpretables. Además, muchos campos tienen un intercambio mínimo entre las características interpretables y la precisión del modelo. Por ejemplo, los investigadores mencionan en uno de sus artículos que se adhirieron a las características que cumplían con sus estándares de interpretabilidad mientras volvían a entrenar el modelo para los evaluadores de bienestar infantil. Los resultados mostraron que la caída del rendimiento del modelo era esencialmente inexistente.

🔥 Recomendado:  Cómo obtener más clientes usando LinkedIn (sin lanzamiento en frío)

Su trabajo permitirá que un desarrollador de modelos administre transformaciones complejas de características de manera más efectiva y produzca explicaciones para modelos de aprendizaje automático orientados a las personas. Además, este nuevo sistema traducirá los algoritmos creados para explicar los conjuntos de datos listos para el modelo en formatos que los tomadores de decisiones puedan comprender.

Creen que su estudio alentaría a los desarrolladores de modelos a considerar la incorporación temprana de elementos interpretables en lugar de concentrarse en la explicación posterior.

Este artículo está escrito como un artículo de resumen por el personal de Marktechpost basado en el trabajo de investigación ‘La necesidad de características interpretables: motivación y taxonomía‘. Todo el crédito por esta investigación es para los investigadores de este proyecto. Revisar la papel y entrada en el blog.

Por favor no olvides unirte Nuestro subreddit de ML

Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools