Investigadores del MIT desarrollan una técnica para mejorar la equidad y la precisión en un modelo de aprendizaje automático

Estás leyendo la publicación: Investigadores del MIT desarrollan una técnica para mejorar la equidad y la precisión en un modelo de aprendizaje automático

Cuando utiliza un modelo de aprendizaje automático para predecir algo, es esencial saber qué tan confiables son las predicciones. Es difícil entender lo que sucede dentro del modelo, y los complejos algoritmos de aprendizaje a menudo se usan como “cajas negras”. regresión selectiva es una técnica utilizada para mejorar el rendimiento en la que el algoritmo de aprendizaje puede predecir la variable objetivo o abstenerse de hacer predicciones basadas en su nivel de confianza. Mejora el rendimiento general del modelo con cobertura reducida (fracción de casos en los que predice), pero puede empeorar para subgrupos con datos subrepresentados y causar sesgo. Esto se debe a que los datos de entrenamiento pueden contener una representación excesiva de algunos subgrupos, lo que influye en la medida de confianza. Justicia los intentos de mejorar los modelos de ML muestran sesgo en variables sensibles (como género, raza, etc.), ya que a veces pueden formar subgrupos con datos subrepresentados. En resumen, se ha observado que mientras se intenta mejorar el rendimiento de un modelo, se produce una disminución de la equidad del modelo. Los investigadores del MIT proponen un método para mitigar las disparidades entre los subgrupos minoritarios en los modelos de aprendizaje automático.

Regresión justa: Este algoritmo está hecho para mantener la equidad con características como el género, es decir, las predicciones no deberían discriminar con esta característica.

Regresión selectiva justa

Evalúa las disparidades en la regresión selectiva e intenta mejorarlas. El equipo del MIT quería asegurarse de que el desempeño de cada subgrupo mejorara a medida que el modelo general mejora en la regresión selectiva. El método que utilizaron se llama Riesgo selectivo monotónico. Este método asegura que para cada subgrupo, el error cuadrático medio disminuya monótonamente con una disminución en la cobertura. Esto asegura que ningún subgrupo sea discriminado en la regresión selectiva. Los investigadores desarrollaron dos algoritmos NN, uno que contiene todas las características sensibles y el segundo que emplea técnicas de calibración para garantizar que la predicción siga siendo la misma independientemente de los atributos sensibles. Cuando se implementó, las disparidades que existían en la regresión selectiva normal se redujeron al obtener errores más bajos para los subgrupos subrepresentados. En particular, la tasa de error general no se vio afectada.

🔥 Recomendado:  Barra de notificaciones de Magento: explicación de la extensión de Meetanshi

En resumen, el rendimiento de un modelo de aprendizaje automático se puede mejorar mediante la regresión selectiva, que disminuye la cobertura, pero tiene algunas desventajas, como la falta de equidad, y los investigadores han proporcionado una técnica para mejorar la equidad sin comprometer la precisión.

Este artículo está escrito como un artículo de resumen de investigación por el personal de investigación de Marktechpost basado en el trabajo de investigación ‘Regresión selectiva bajo criterios de equidad‘. Todo el crédito de esta investigación es para los investigadores de este proyecto. Revisar la papel, enlace github y artículo del MIT.

Por favor no olvides unirte Nuestro subreddit de ML

Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools