Estás leyendo la publicación: Cómo la IA explicable mejora la fiabilidad y la confianza
A medida que la inteligencia artificial (IA) se democratiza en las empresas, se integra lentamente en el tejido de nuestra existencia. Un aspecto importante de esta democratización es que los usuarios finales deberían poder comprender completamente el proceso y los mecanismos que utiliza la IA para llegar a una conclusión o cómo funciona para ofrecer los resultados deseados. Los seres humanos tenemos una necesidad muy arraigada de desvelar el “por qué” y el “cómo” de cualquier fenómeno, lo que ha acelerado nuestro avance tecnológico. En el contexto de la IA, este entendimiento se denomina “explicabilidad”.
¿Por qué la explicabilidad es la necesidad del momento?
La mayoría de las veces, nos acercamos a la IA como una “caja negra”, donde solo tenemos conocimiento de las entradas y salidas, pero en algún lugar los procesos utilizados se pierden para nosotros. Para agravar este problema, está el hecho de que los algoritmos que impulsan las formas más populares de IA, como los complejos sistemas de predicción basados en el aprendizaje profundo y el procesamiento del lenguaje natural (NLP), son muy abstractos incluso para sus profesionales más expertos.
Confianza y Transparencia: Para que los usuarios confíen en las predicciones de la IA, debe tener cierto nivel de explicabilidad inherente. Por ejemplo, si un médico debe recomendar un tratamiento basado en las predicciones de la IA, debe tener confianza en la predicción. Un banco debe tener plena confianza en la decisión de rechazar o aprobar un préstamo y ser capaz de justificar la misma ante todas las partes interesadas. Una IA utilizada para la selección y la contratación debe demostrar que los mecanismos subyacentes son justos y equitativos para todas las cohortes de solicitantes.
Hace que la IA sea más humana y aumenta la adopción: En Mckinsey’s Informe sobre el estado de la IA en 2020 aprendemos que un fabricante usa modelos extremadamente transparentes para la aceptación de sus trabajadores de fábrica, quienes necesitan confiar en los juicios hechos por AI con respecto a su seguridad. Para una rápida adopción de la IA, obtener la aceptación de las partes interesadas es el principal obstáculo para escalar desde soluciones puntuales simples hasta el nivel empresarial y aprovechar al máximo la inversión realizada. Esto se alivia en gran medida si la actuación es explicable a una audiencia más amplia. Desde una perspectiva comercial, la explicabilidad mejora la experiencia general del usuario y aumenta la satisfacción del cliente. Según los resultados de una encuesta del IBM Institute for Business Value, el 68 % de los altos ejecutivos creen que los clientes exigirán una mayor capacidad de explicación de la IA en los próximos tres años.
Descubra sesgos y mejore el rendimiento del modelo: Un desarrollador necesita saber cómo puede mejorar el rendimiento del modelo y cómo depurarlo y ajustarlo exactamente. Un marco claro de explicabilidad es una de las herramientas más importantes para realizar el análisis exhaustivo que se necesita.
Obtenga información más nítida y completa: Se necesita una vista completa de 360 grados para comprender completamente cualquier prescripción hecha por IA. Por ejemplo, si la IA se utiliza para tomar una decisión de inversión, también sería necesario conocer la lógica detrás de ella, a fin de transferir este aprendizaje a otras áreas y también comprender los peligros potenciales de tomar esa decisión. Una sólida comprensión de cómo funciona la IA también permitirá a los responsables de la toma de decisiones descubrir nuevos casos de uso.
Regulaciones y Responsabilidad: Varias regulaciones, como el RGPD, exigen el derecho a una explicación para abordar los problemas de responsabilidad que surgen de un proceso automatizado de toma de decisiones. En sistemas como los vehículos autónomos, si algo sale mal y provoca la pérdida de vidas y propiedades, se necesita un conocimiento adecuado sobre la causa raíz, que será difícil de identificar en un sistema de caja negra.
¿Cómo puede la IA ser más explicable?
Los Sistemas de Inteligencia Artificial Explicables (XAI) se desarrollan utilizando diferentes técnicas que se enfocan en explicar el modelo como un todo o explicar el razonamiento detrás de la predicción individual a través de la ayuda de algún algoritmo.
Principalmente, todas las técnicas de explicabilidad se basan en:
- Desintegración de un modelo en componentes individuales)
- Visualización de predicciones de modelos (por ejemplo, si un modelo clasifica un automóvil como de una determinada marca, resalta la parte que provocó que lo marcara como tal)
- Explanation Mining (utilizando técnicas de aprendizaje automático para encontrar datos relevantes que expliquen la predicción de un algoritmo de inteligencia artificial).
En una de esas técnicas llamada modelado proxy, se usa un modelo más simple y comprensible como un árbol de decisión para representar aproximadamente el modelo de IA más elaborado. Estas explicaciones simplistas dan una idea clara del modelo a un alto nivel, pero a veces pueden suprimir ciertos matices.
Otro enfoque se llama “interpretabilidad por diseño”. Este enfoque impone restricciones en el diseño y el entrenamiento de la red de IA de una nueva manera, que intenta construir la red general a partir de fragmentos explicables más pequeños y más simples. Esto implica una compensación entre el nivel de precisión y la explicabilidad y limita ciertos enfoques del conjunto de herramientas del científico de datos. También podría ser muy intensivo en computación.
El entrenamiento y las pruebas de IA también pueden emplear técnicas de verificación de datos agnósticas, como el modelo local interpretable (LIME) y las explicaciones de aditivos de Shapley (SHAP), y estos deben adaptarse para lograr una alta precisión mediante el uso de F-score, precisión y otras métricas. Y, por supuesto, todos los resultados deben monitorearse y verificarse utilizando una amplia variedad de datos. Con LIME, por ejemplo, las organizaciones pueden crear modelos temporales que imitan las predicciones de algoritmos no transparentes como el aprendizaje automático. Estos modelos LIME luego pueden crear una amplia gama de permutaciones basadas en un conjunto de datos dado y su salida correspondiente, que luego se pueden usar para entrenar modelos simples y más interpretables junto con listas completas de explicaciones para cada decisión y/o predicción. El marco SHAP que tiene sus fundamentos en la teoría de juegos y específicamente en la teoría de juegos cooperativos es un modelo que es . Combina la asignación óptima de créditos con explicaciones locales utilizando los valores originales de Shapley de la teoría de juegos y sus descendientes.
Operaciones basadas en principios
Sin embargo, a un nivel más estratégico, los marcos de confiabilidad de la IA deben incorporar un amplio conjunto de principios destinados a garantizar resultados adecuados tanto al comienzo de la implementación como a lo largo del tiempo a medida que los modelos evolucionan en presencia de circunstancias cambiantes. Como mínimo, estos marcos deben incluir cosas como:
- Detección de sesgo – todos los conjuntos de datos deben eliminarse de sesgos y atributos discriminatorios y luego recibir el peso y la discreción adecuados cuando se aplican al modelo de entrenamiento;
- Participación humana – los operadores deben poder investigar e interpretar los resultados de los algoritmos en todo momento, en particular cuando los modelos se utilizan para hacer cumplir la ley y preservar las libertades civiles;
- Justificación – todas las predicciones deben poder resistir el escrutinio, que por naturaleza requiere un alto grado de transparencia para permitir que los observadores externos evalúen los procesos y criterios utilizados para producir resultados;
- reproducibilidad – Los modelos de IA confiables deben ser consistentes en sus predicciones y deben exhibir altos niveles de estabilidad al encontrar nuevos datos.
Pero la XAI no debe verse solo como un medio para mejorar la rentabilidad, sino también para incorporar la rendición de cuentas para garantizar que las instituciones puedan explicar y justificar el efecto de sus creaciones en la sociedad en su conjunto.