Investigadores del Allen Institute for AI presentan TeachMe: un marco para comprender y corregir modelos de IA

Estás leyendo la publicación: Investigadores del Allen Institute for AI presentan TeachMe: un marco para comprender y corregir modelos de IA

Hasta hace poco, los resultados de los modelos de IA se mantuvieron en secreto. Incluso si los investigadores conocen el conjunto de datos en el que se entrenó un modelo, aún pueden tener preguntas sobre los datos que el modelo usó para responder a una consulta o proporcionar un resultado. Pero, ¿qué pasaría si un modelo pudiera demostrar sus esfuerzos explicando claramente los pasos que tomó para llegar a un determinado resultado, y el usuario pudiera proporcionar comentarios sobre si la lógica del modelo era correcta o no?

En AI2, un grupo de científicos que trabajaban en el proyecto Aristo quería crear un sistema de razonamiento entrenable con dos características específicas.

TeachMe es el sistema sugerido, que consta de dos partes clave:

(1) Entailer, un modelo de razonamiento automático basado en T5 que puede generar líneas de razonamiento válidas

(2) una base de datos dinámica de comentarios anteriores

Mayorista

Incluir palabras y frases enseñadas previamente. De esta manera, los modelos son una especie de fuente de conocimiento de la que extraer. En este caso, sin embargo, el método de los investigadores articula este conocimiento tácito de manera dirigida a un objetivo al generar un argumento lógicamente sólido basado en evidencia que verifica como verdadera para llegar a una conclusión determinada. Entailer, el modelo propuesto, construye cadenas de razonamiento de múltiples etapas al combinar generación y verificación. Entailer produce muchas más posibles vinculaciones de las que necesita para cada paso. Luego elimina aquellas que no satisfacen su conocimiento interno cuestionando si cada premisa creada es verdadera y si cada paso de vinculación es válido. Luego, la prueba retrocede a través de sus premisas hasta que la confianza en la prueba como un todo ya no puede aumentar. Cuando todo lo demás falla, se devuelve la respuesta del candidato respaldada por la cadena de argumentos más fuerte. Por lo tanto, el sistema ha actualizado parte de su información latente, lo que finalmente conduce a la reacción elegida. Lo que es más importante, la evidencia resultante es tanto confiable como honesta, y da una idea de la visión del mundo del modelo y sus consecuencias que de otro modo no habríamos tenido.

🔥 Recomendado:  Investigadores de Apple desarrollan 'RoomPlan': una API para representar habitaciones en una vista paramétrica 3D

Enseñame

Siempre que se les presione, la mayoría de las personas pueden articular una línea de pensamiento coherente que conduzca a sus conclusiones, y están abiertas a revisar esas conclusiones a la luz de nueva información o evidencia. Del mismo modo, los investigadores pretenden que los robots entreguen respuestas razonadas a las consultas, elaborando cómo la respuesta se deriva de su conocimiento interno e indicando dónde podría modificar su solución si se detectan fallas en esa información. Hay tres partes en la estrategia. El sistema primero genera respuestas respaldadas por una cadena lógica de vinculación que demuestra cómo la respuesta se deriva de las presuposiciones del sistema. En segundo lugar, si una respuesta es incorrecta, el usuario puede verificar la lógica para averiguar por qué. Y finalmente, agregamos una memoria dinámica al modelo para que pueda recordar y actuar sobre la entrada del usuario. TeachMe usa esta memoria para buscar información que sus usuarios han proporcionado previamente cuando se reformula una nueva pregunta o un tema relacionado. Estos se consideran luego mientras se construye una respuesta basada en la implicación a la consulta. Esta es una aplicación novedosa del aprendizaje continuo basado en la memoria para el mantenimiento de creencias, en el que el modelo permanece constante (congelado) y el reentrenamiento es innecesario. Ayuda a TeachMe a anular creencias de modelos erróneos anteriores, lo que lo sesga para evitar errores similares en el futuro.

Hasta ahora, ningún sistema ha sido capaz de construir cadenas de varios pasos que sean honestas y fieles, lo que significa que la respuesta se deriva lógicamente del razonamiento. El implicador de resultados es el primero en hacerlo. Los usuarios consideran que más del 70 % de las cadenas creadas, en relación con una línea de base de alto rendimiento, demuestran de manera efectiva cómo fluye una respuesta a partir de un conjunto de hechos, al tiempo que mantienen la precisión de la respuesta, en una evaluación que utiliza dos conjuntos de datos diferentes. La capacidad de interactuar con un modelo en el que los usuarios pueden comprender sus ideas y corregir malentendidos cuando una respuesta es inexacta se ve facilitada en gran medida por la materialización de las creencias del modelo para justificar una respuesta sistemáticamente.

🔥 Recomendado:  Patrimonio neto de Chad Hurley en 2023: 5 lecciones asombrosas de su éxito

Para estar dentro del 1 % del límite superior, TeachMe necesita información sobre el 25 % de las muestras de entrenamiento y mejora con el tiempo sin necesidad de volver a entrenar el modelo (comentarios sobre todos los ejemplos). El mismo patrón se observa en los experimentos de los usuarios, con resultados que muestran una mejora del 15 % en el rendimiento siguiendo las instrucciones en un conjunto de prueba secreto. Estos hallazgos apuntan a nuevas vías prometedoras para emplear modelos de lenguaje congelado en una situación interactiva. Los usuarios pueden analizar, depurar y modificar las creencias del modelo, lo que conduce a un mejor rendimiento del sistema.

Contexto y Conclusión

La incorporación de un modelo de control de calidad basado en vinculación en un sistema más amplio con una memoria dinámica y persistente permite a los usuarios corregir y anular las creencias del modelo, lo que lleva a un sistema general que puede mejorar con el tiempo sin volver a capacitarse, como lo demostró el equipo de investigación. Este es el primer sistema que demuestra la viabilidad de combinar creencias proporcionadas por el usuario e internas del modelo para la inferencia sistemática. Este es un gran problema porque promete crear sistemas que puedan comunicarse con las personas y adaptarse a sus necesidades con el tiempo.

También proporciona una solución potencial al misterio de las redes neuronales: ver los modelos como parte de un sistema más completo que almacena información indefinidamente y la usa para razonar sistemáticamente.