Estás leyendo la publicación: Remediación del modelo Tensorflow: un marco para la IA responsable
La corrección de modelos de Tensorflow es una biblioteca que brinda soluciones para varios problemas que generalmente ocurren durante el modelado. La remediación de modelos de TensorFlow es una biblioteca que se usa para manejar las inquietudes de manera eficiente con respecto al rendimiento del modelo y para superar los sesgos de los modelos para conjuntos particulares de características y la biblioteca generalmente usa dos técnicas para abordar las inquietudes de los modelos desarrollados. A través de este artículo, intentemos comprender la biblioteca de corrección del modelo de Tensorflow y las diferentes técnicas que utiliza la biblioteca para abordar las inquietudes asociadas con el modelo.
Tabla de contenido
- Acerca de la corrección del modelo de TensorFlow
- Técnica MinDiff para la remediación del modelo Tensorflow
- Emparejamiento logit contrafactual para la remediación del modelo
- Casos de uso de técnicas de remediación modelo
- Resumen
La técnica de remediación del modelo Tensorflow se usa para abordar la inclinación del rendimiento del modelo en un determinado conjunto de características o para manejar el sesgo de los modelos. La biblioteca actúa como un regulador justo de los modelos desarrollados y ayuda a manejar las preocupaciones asociadas con los modelos desarrollados. En general, hay tres formas de manejar los sesgos del modelo, y la biblioteca de corrección del modelo de Tensorflow utiliza la técnica de modelado de tiempo de entrenamiento.
¿Está buscando un repositorio completo de bibliotecas de Python utilizadas en ciencia de datos, echa un vistazo aquí.
La técnica de modelado de tiempo de entrenamiento intenta manejar los sesgos o la equidad del modelo alterando los objetivos del modelo y agregando ciertas restricciones a un determinado conjunto de características basadas en la experiencia del sujeto. La técnica de modelado de tiempo de entrenamiento tiene dos funcionalidades incorporadas para manejar las preocupaciones asociadas con el modelado. Son la técnica Mindiff y la técnica Contrafactual Logit Pairing. Ahora veamos cómo se usan las diferentes técnicas dentro de la biblioteca de corrección de modelos de Tensorflow para manejar las inquietudes asociadas con los modelos desarrollados.
La técnica MinDiff para la remediación de modelos tiene como objetivo equilibrar las tasas de error en el conjunto de características al equilibrar la distribución de puntajes para cada conjunto de características que se está considerando. Entonces, esta técnica escala la distribución de la característica a una escala común antes del entrenamiento del modelo para que el modelo no se vea afectado por valores inciertos presentes en los datos.
La técnica de Mindiff se emplea principalmente para equilibrar la diferencia en las tasas de falsos positivos (FPR) y las tasas de falsos negativos (FNR), donde las clases sensibles de los datos se dividen y se agrega un determinado término de penalización a los términos sensibles para equilibrar la sensibilidad. entre las clases. Esta técnica tiene como objetivo predecir las etiquetas de clase con precisión, incluso para clases con sensibilidad donde se brinda la misma oportunidad para cada una de las clases a cada una de las clases en los datos. Ahora intentemos entender la técnica de Mindiff en detalle.
Funcionamiento de la técnica MinDiff
Para comprender el funcionamiento de la técnica MinDiff, consideremos dos conjuntos de características del conjunto de datos. Supongamos que las características consideradas no tienen un número considerable de ocurrencias, entonces la técnica de Mindiff penaliza al modelo durante el propio proceso de entrenamiento e iguala la distribución de puntuaciones entre los conjuntos. Cuanto menor sea la variación en la distribución, menor será la penalización aplicada, y cuanto mayor sea la variación en la distribución, mayor será la penalización aplicada para equilibrar la distribución de datos entre los conjuntos considerados.
La aplicación de la técnica MinDiff se inclina por las compensaciones entre el desempeño con la tarea original. La técnica MinDiff puede ser beneficiosa ya que no degrada el rendimiento del modelo, pero el equilibrio de la distribución de características puede depender completamente de la experiencia del sujeto. Ahora veamos cuándo usar la técnica MinDiff.
¿Cuándo debemos usar la técnica MinDiff?
La técnica MinDiff cierra la brecha entre las instancias inferiores de las clases. La sensibilidad entre las clases depende enteramente de la experiencia subjetiva, y si se tiene que manejar la sensibilidad entre las clases, tendremos que usar esta técnica. Hay básicamente dos condiciones para usar la técnica MinDiff. Son los siguientes.
- La técnica debe aplicarse solo después de evaluar el rendimiento del modelo original sin ninguna remediación para que las clases de bajo rendimiento puedan identificarse y corregirse en consecuencia utilizando la técnica.
- La técnica se puede usar si y solo si existe la posibilidad de obtener un número requerido de muestras para instancias de clase de bajo rendimiento.
Entonces, como se mencionó anteriormente, esta técnica se usa para manejar la incertidumbre en el comportamiento del modelo para clases sensibles, y esta técnica es una buena opción cuando tratamos de igualar el rendimiento.
¿Cuándo no utilizar la técnica MinDiff?
Se sabe que la técnica MinDiff produce resultados fenomenales, pero en ciertos momentos, la distribución desigual de ciertas clases se sesgaría asimétricamente. Por lo tanto, es importante comprender la distribución de los datos y, en general, es una mejor práctica normalizar los parámetros del modelo antes del modelado. Entonces, si los parámetros sesgados se penalizan aún más, conduciría a interpretaciones incorrectas de los modelos desarrollados. Entonces, en estos casos, no se debe usar la técnica MinDiff.
Tipo de modelo y métricas adecuadas para MinDiff
La técnica MinDiff es más beneficiosa para las tareas de clasificación de clases binarias. La aplicación de esta técnica también se puede utilizar para tareas de clasificación de clases múltiples, pero esta técnica está bien configurada para la clasificación de clases binarias. La técnica es extremadamente útil para equilibrar la distribución entre las tasas de falsos positivos y falsos negativos del modelo para una predicción eficiente donde las preocupaciones asociadas con las predicciones falsas están sesgadas hacia las categorías que ocurren con más frecuencia y pueden evacuarse utilizando la técnica MinDiff.
El emparejamiento logit contrafactual también se conoce como la técnica CLP, y esta es una de las técnicas utilizadas por la biblioteca de remediación del modelo Tensorflow. La técnica se utiliza principalmente para garantizar que la predicción del modelo siga siendo sólida independientemente de los aspectos contrafactuales, es decir, el atributo de sensibilidad en cada característica es diferente. Por lo tanto, esta técnica garantiza que la predicción del modelo sea correcta incluso si, en algunos casos, las características sensibles de los datos se eliminan debido a factores de toxicidad o se deciden después de discusiones subjetivas.
Trabajando en la técnica CLP
La técnica CLP agrega un factor de pérdida al modelo original desarrollado que es proporcionado por el emparejamiento logit y de detalles contrafácticos obtenidos de los datos. Se calculará la diferencia entre el factor de pérdida y el factor de emparejamiento logit, y las diferencias en los clasificadores se penalizarán en consecuencia para que la predicción de los modelos no se vea afectada por los parámetros sensibles.
¿Cuándo utilizar la técnica CLP?
La técnica CLP se utiliza para equilibrar las predicciones del modelo donde el cambio en un determinado conjunto de atributos o parámetros afecta en gran medida a la predicción del modelo. Esta técnica se usa ampliamente para manejar datos textuales con declaraciones ofensivas o tóxicas. Entonces, la técnica toma ciertos datos textuales como entrada y devuelve un determinado conjunto de puntajes en una escala de 0 a 1 como medida de toxicidad. La toxicidad entre oraciones se evalúa a través de puntajes de correlación y para una contexidad similar o, para ser más precisos, niveles de toxicidad similares de oraciones deben tener el mismo valor de correlación. Por lo tanto, la técnica CLP se puede usar ampliamente para verificar la correlación entre tipos similares de datos de texto y para evaluar la correlación entre ellos.
Medición de la eficacia de la técnica CLP
Una vez desarrollado el modelo sin ninguna técnica de remediación y si la predicción del modelo cambia con respecto a la presencia de los atributos sensibles, se debe utilizar la técnica CLP. La efectividad de la técnica CLP se puede medir utilizando el parámetro “flip”. Por lo tanto, el parámetro de volteo será responsable de generar el conteo de volteo y las tasas de volteo donde la prevalencia de problemas debido a la toxicidad se puede evaluar de manera correspondiente utilizando este parámetro. Entonces, dependiendo del parámetro de volteo y la efectividad del parámetro de volteo, la sensibilidad de los datos textuales puede manejarse adecuadamente para la sensibilidad.
¿Cuándo no utilizar la técnica CLP?
Como se mencionó anteriormente, la técnica CLP maneja atributos confidenciales, especialmente en datos textuales. La técnica CLP no está estructurada para manejar algunas declaraciones tóxicas como el género y las características de ciertos individuos. Antes de usar la técnica CLP, es importante comprender que esta técnica se usa principalmente para manejar los atributos sensibles de los datos y el cambio en la predicción asociada con respecto a los cambios en el futuro en consecuencia. La técnica CLP tampoco puede cerrar grandes brechas en el rendimiento. Por lo tanto, la técnica CLP debe usarse con mucha sensatez y, si se usa, es una buena práctica estudiar la sensibilidad de los atributos entre dos conjuntos de parámetros y comprender la distribución de los datos, si es posible, y luego solo usar la técnica CLP para manejar la atributos sensibles en los datos.
Como se mencionó anteriormente, la técnica de remediación del modelo se usa principalmente para equilibrar la distribución de datos y, con respecto a los datos textuales, también se usa para manejar de manera eficiente la toxicidad en los datos. Pero las técnicas de remediación del modelo se pueden usar en varios lugares, y algunos de los principales beneficios de la remediación del modelo se mencionan a continuación.
i) Edición de modelos es fácil con el uso de técnicas de remediación. Algunos de los modelos de aprendizaje automático, como los árboles de decisión, son extremadamente sensibles a pequeños cambios en los datos. Aquí es donde las técnicas de remediación del modelo son útiles, donde los atributos confidenciales de los datos se manejan de manera eficiente para que el modelo no se vea afectado por los parámetros confidenciales.
ii) Modelo de aserciones también son posibles a través de técnicas de remediación de modelos, ya que nos ayudan a mejorar los resultados comerciales del modelo, ya que se pueden aplicar ciertas penalizaciones a un determinado conjunto de características, y el modelo será robusto para los atributos sensibles.
iii) Reducción del sesgo también es posible a través de técnicas de remediación de modelos, ya que nos ayuda a tener datos diversos. La técnica de remediación del modelo es responsable de la cuidadosa selección de características del modelo entrenado, y el sesgo hacia ciertas características se normaliza utilizando ciertos factores penalizados.
iv) Monitoreo de modelos también es posible a través de la técnica de remediación del modelo, ya que nos ayuda a realizar una depuración continua del modelo y monitorear continuamente varios parámetros del modelo para mantener la confiabilidad continua del modelo.
Resumen
La corrección de modelos de Tensorflow es uno de los marcos de Tensorflow, que garantiza modelos robustos que no se ven afectados por atributos confidenciales o pequeños cambios en los datos. La biblioteca tiene como objetivo manejar de manera eficiente las clases de bajo rendimiento en los datos e intenta penalizar las clases equilibrando la distribución entre los parámetros. Entonces, en general, la biblioteca de remediación de Tensorflow se usa ampliamente para manejar las preocupaciones de rendimiento del modelo asociadas con la sensibilidad y tiene como objetivo producir modelos sólidos.