Estás leyendo la publicación: Los investigadores de IA de Stanford proponen ‘FOCUS’: un modelo básico que tiene como objetivo lograr el secreto perfecto para las tareas personales
El aprendizaje automático tiene la posibilidad de ayudar a las personas con actividades personales. Los trabajos personales van desde actividades bien conocidas como la categorización de temas sobre la correspondencia personal y responder preguntas abiertas en el contexto de las relaciones personales hasta tareas especializadas para usuarios individuales. Dada la naturaleza sensible de los datos personales necesarios para tales trabajos, estos sistemas deben garantizar que no se filtre información privada, que los datos sean de alta calidad y que sean factibles.
El sistema de privacidad ideal proporcionará secreto absoluto: la probabilidad de que los adversarios obtengan información privada no aumenta a medida que los usuarios interactúan con el sistema. Simplemente entrenar o ajustar un modelo en el conjunto de datos privado de un usuario es un enfoque simple para satisfacer esta garantía de privacidad tradicional. Los modelos neuronales recientes, por otro lado, requieren una gran cantidad de datos de entrenamiento, pero los consumidores con frecuencia solo tienen una pequeña cantidad de datos etiquetados.
El aprendizaje federado a través de datos que abarcan numerosos usuarios se ha desarrollado como un método destacado para superar el problema de los usuarios individuales que carecen de datos suficientes. En lugar de requerir que todos los usuarios envíen datos a una ubicación central, FL entrena un modelo de tarea enviando el modelo entre los usuarios y un servidor central.
FL no permite la transmisión de datos sin procesar entre dispositivos, pero renuncia al secreto perfecto. Desafortunadamente, el modelo expuesto se puede utilizar para recuperar información confidencial. Para el usuario medio, FL aumenta el rendimiento del modelo. Los datos privados, por otro lado, varían mucho según el individuo, y el rendimiento de los participantes suele ser desigual. El proceso de capacitación también puede verse contaminado por participantes antagónicos y servidores centrales. FL requiere varias rondas de comunicación entre varios usuarios para funcionar bien, lo que presenta problemas comunes del sistema distribuido, como la heterogeneidad y la sincronización del dispositivo. Cada tarea personal que un usuario quiere completar tiene un costo.
Investigadores de la Universidad de Stanford propusieron recientemente Controles del modelo básico para el secreto del usuario (FOCUS), un marco para atender tareas personales de forma segura basado en una arquitectura de flujo de datos unidireccional, en respuesta a estos problemas. FOCUS incluye la entrega de FM públicos listos para usar para silos de usuarios privados y el uso de enfoques de adaptación de FM de muestra de cero a pocos para completar tareas personales con los ejemplos de capacitación de cero a pocos a los que los usuarios tienen acceso.
Los investigadores utilizaron el modelo Bell-LaPadula, que garantiza el secreto absoluto, para formalizar la garantía de privacidad. El modelo BLP fue creado para que las organizaciones gubernamentales administren el control de acceso de múltiples niveles de seguridad, correspondiente a la configuración de FM de acceso público y datos personales de acceso privado. En 6 de 7 puntos de referencia relevantes de la literatura sobre privacidad, que abarcan la visión y el lenguaje natural, el equipo encontró que las líneas de base de FM son competitivas con las líneas de base sólidas de FL utilizando estrategias de adaptación de FM de pocas muestras.
Conclusión
FOCUS implica que se puede lograr el ocultamiento perfecto para una variedad de tareas personales, a pesar del enfoque actual en las concepciones estadísticas de la privacidad. Esta es solo una prueba de concepto, y hay una serie de problemas que abordar en el futuro, como la fragilidad provocada, la degradación fuera del dominio y el tiempo de ejecución lento de la ejecución de inferencias con modelos grandes. El uso de FM tiene una serie de inconvenientes. Los FM tienden a tener destellos de conocimiento cuando no están seguros, solo están disponibles en idiomas ricos en recursos y son costosos de entrenar previamente.
Este artículo está escrito como un artículo resumido por el personal de Marktechpost basado en el documento ‘¿PUEDEN LOS MODELOS DE FUNDACIÓN AYUDARNOS A ALCANZAR EL SECRETO PERFECTO?‘. Todo el crédito de esta investigación es para los investigadores de este proyecto. Revisar la papel y github.
Por favor, no olvides unirte a nuestro Subreddit de aprendizaje automático
Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools