Estás leyendo la publicación: ¿Qué es la IA responsable? Principios, desafíos y beneficios
La IA responsable (RAI) se refiere al diseño y la implementación de sistemas de IA que sean transparentes, imparciales, responsables y sigan pautas éticas. A medida que los sistemas de IA se vuelven más robustos y predominantes, es esencial asegurarse de que se desarrollen de manera responsable y sigan las pautas éticas y de seguridad.
Salud, Transporte, Gestión de Redes y Vigilancia son aplicaciones de IA críticas para la seguridad donde la falla del sistema puede tener graves consecuencias. Las grandes empresas son conscientes de que la RAI es fundamental para mitigar los riesgos tecnológicos. Sin embargo, según un informe de MIT Sloan/BCG que incluyó a 1093 encuestados, 54% de las empresas carecían de experiencia y talento en IA responsable.
Aunque los líderes intelectuales y las organizaciones han desarrollado principios para la IA responsable, garantizar el desarrollo responsable de los sistemas de IA aún presenta desafíos. Exploremos esta idea en detalle:
5 principios para una IA responsable
1. Equidad
Los tecnólogos deben diseñar procedimientos para que los sistemas de IA traten a todos los individuos y grupos de manera justa y sin prejuicios. Por lo tanto, la equidad es el requisito principal en las aplicaciones de toma de decisiones de alto riesgo.
Justicia Se define como:
“Examinar el impacto en varios grupos demográficos y elegir una de varias definiciones matemáticas de equidad grupal que satisfaga adecuadamente el conjunto deseado de requisitos legales, culturales y éticos”.
2. Responsabilidad
Responsabilidad significa que las personas y las organizaciones que desarrollan e implementan sistemas de IA deben ser responsables de sus decisiones y acciones. El equipo que implementa sistemas de IA debe asegurarse de que su sistema de IA sea transparente, interpretable, auditable y no perjudique a la sociedad.
La rendición de cuentas incluye Siete componentes:
- Contexto (propósito para el cual se requiere rendición de cuentas)
- Rango (sujeto de rendición de cuentas)
- Agente (¿quién es responsable?)
- Foro (a quien debe informar el responsable)
- Estándares (criterios para la rendición de cuentas)
- Proceso (método de rendición de cuentas)
- Implicaciones (consecuencias de la rendición de cuentas)
3. Transparencia
La transparencia significa que la razón detrás de la toma de decisiones en los sistemas de IA es clara y comprensible. Los sistemas de IA transparentes son explicables.
De acuerdo a Lista de Evaluación para Inteligencia Artificial Confiable (ALTAI)la transparencia tiene tres elementos clave:
- Trazabilidad (los datos, los pasos de preprocesamiento y el modelo son accesibles)
- Explicabilidad (el razonamiento detrás de la toma de decisiones/predicción es claro)
- Comunicación abierta (sobre la limitación del sistema de IA)
4. Privacidad
La privacidad es uno de los principios fundamentales de la IA responsable. Se refiere a la protección de la información personal. Este principio garantiza que la información personal de las personas se recopile y procese con consentimiento y se mantenga fuera del alcance de los descontentos.
Como se evidenció recientemente, hubo un caso de Clearview, una empresa que fabrica modelos de reconocimiento facial para fuerzas del orden y universidades. Vigilantes de datos del Reino Unido demandó a Clearview AI por £ 7,5 millones por recopilar imágenes de residentes del Reino Unido de las redes sociales sin consentimiento para crear una base de datos de 20 mil millones de imágenes.
5. Seguridad
La seguridad significa garantizar que los sistemas de IA sean seguros y no amenace a la sociedad. Un ejemplo de una amenaza de seguridad de IA es ataques adversarios. Estos ataques maliciosos engañan a los modelos de ML para que tomen decisiones incorrectas. Proteger los sistemas de IA de los ataques cibernéticos es imperativo para una IA responsable.
4 principales desafíos y riesgos de la IA responsable
1. Sesgo
Los sesgos humanos relacionados con la edad, el género, la nacionalidad y la raza pueden afectar la recopilación de datos, lo que podría conducir a modelos de IA sesgados. Estudio del Departamento de Comercio de EE. UU. descubrió que la IA de reconocimiento facial identifica erróneamente a las personas de color. Por lo tanto, el uso de IA para el reconocimiento facial en la aplicación de la ley puede dar lugar a detenciones indebidas. Además, hacer modelos de IA justos es un desafío porque hay 21 diferentes parámetros para definirlos. Entonces, hay una compensación; satisfacer un parámetro justo de IA significa sacrificar otro.
2. Interpretabilidad
La interpretabilidad es un desafío crítico en el desarrollo de una IA responsable. Se refiere a comprender cómo el modelo de aprendizaje automático ha llegado a una conclusión particular.
Las redes neuronales profundas carecen de interpretabilidad porque funcionan como cajas negras con múltiples capas de neuronas ocultas, lo que dificulta la comprensión del proceso de toma de decisiones. Esto puede ser un desafío en la toma de decisiones de alto riesgo, como atención médica, finanzas, etc.
Además, formalizar la interpretabilidad en modelos ML es un desafío porque es subjetivo y específico del dominio.
3. Gobernanza
La gobernanza se refiere a un conjunto de reglas, políticas y procedimientos que supervisan el desarrollo y la implementación de los sistemas de IA. Recientemente, ha habido un progreso significativo en el discurso de la gobernanza de la IA, con organizaciones que presentan marcos y pautas éticas.
Directrices éticas para IA confiable por la UE, Marco de ética de la IA de Australiay Principios de IA de la OCDE son ejemplos de marcos de gobernanza de IA.
Pero el rápido avance de la IA en los últimos años puede superar estos marcos de gobernanza de la IA. Con este fin, debe haber un marco que evalúe la equidad, la interpretabilidad y la ética de los sistemas de IA.
4. Regulación
A medida que los sistemas de IA se vuelven más frecuentes, es necesario que exista una regulación para considerar los valores éticos y sociales. Desarrollar una regulación que no sofoque la innovación de la IA es un desafío crítico en la IA responsable.
Incluso con el Reglamento General de Protección de Datos (RGPD), la Ley de Privacidad del Consumidor de California (CCPA) y la Ley de Protección de Información Personal (PIPL) como organismos reguladores, los investigadores de IA descubrieron que el 97 % de los sitios web de la UE no cumplen con los requisitos del marco legal del RGPD.
Además, los legisladores se enfrentan a una desafío importante en llegar a un consenso sobre la definición de IA que incluye tanto los sistemas clásicos de IA como las últimas aplicaciones de IA.
3 beneficios principales de la IA responsable
1. Sesgo reducido
La IA responsable reduce el sesgo en los procesos de toma de decisiones, generando confianza en los sistemas de IA. Reducir el sesgo en los sistemas de IA puede proporcionar un enfoque justo y equitativo Sistema de Cuidado de la Salud y reduce el sesgo en la inteligencia artificial servicios financieros etc.
2. Transparencia mejorada
La IA responsable crea aplicaciones de IA transparentes que generan confianza en los sistemas de IA. Sistemas de IA transparentes disminuir el riesgo de error y mal uso. La transparencia mejorada facilita la auditoría de los sistemas de IA, gana la confianza de las partes interesadas y puede conducir a sistemas de IA responsables.
3. Mejor seguridad
Las aplicaciones seguras de IA garantizan la privacidad de los datos, producen resultados fiables e inofensivos y están a salvo de ciberataques.
Gigantes tecnológicos como microsoft y Google, que están a la vanguardia del desarrollo de sistemas de IA, han desarrollado principios de IA responsable. La IA responsable garantiza que la innovación en IA no sea dañina para las personas y la sociedad.
Los líderes de opinión, los investigadores, las organizaciones y las autoridades legales deben revisar continuamente la literatura sobre IA responsable para garantizar un futuro seguro para la innovación en IA.
Para obtener más contenido relacionado con la IA, visite unite.ai.