Estás leyendo la publicación: El Instituto Allen de Inteligencia Artificial presenta MemPrompt: un nuevo método para “arreglar” GPT-3 después de la implementación con la interacción del usuario
Los modelos de lenguaje están transformando la ciencia y la sociedad gracias a los recientes avances tecnológicos en inteligencia artificial y aprendizaje automático. Sin embargo, los modelos de lenguaje siguen siendo algo polémicos a pesar de su asombroso potencial para resolver problemas e incluso para escribir código. Ocasionalmente generan errores y producen resultados sesgados en función de los millones de documentos en los que están capacitados. Sin embargo, hay una manera para que estos modelos de lenguaje compensen sus respuestas erróneas, y es a través de la interacción del usuario.
La idea detrás del enfoque era que dar retroalimentación a un modelo a través de la interacción del usuario para aclarar las intenciones detrás de su consulta y el tipo de respuesta deseado podría proporcionar una mejor ayuda para mejorar la comprensión del modelo. Dando un paso en esta nueva dirección de investigación, el Instituto Allen para la IA (AI2) investigó un método novedoso que permite a los usuarios brindar comentarios instructivos a los modelos de lenguaje incluso cuando no están seguros de la respuesta correcta.
Para abordar esto, los investigadores presentan MemPrompt: edición de avisos asistida por memoria con comentarios del usuario, un enfoque innovador de emparejar GPT-3 con una memoria de eventos grabados cuando el modelo lee mal las intenciones del usuario. Para aumentar el rendimiento y la precisión del modelo, también se brindan comentarios correctivos del usuario para aclarar aún más la tarea prevista. La metodología lista para usar de AI2 combina técnicas tradicionales de ingeniería de avisos e interactividad dinámica con avisos de modelos. Esto hace posible que incluso personas que no son académicas ofrezcan su opinión y traten de evaluar la comprensión del modelo en función de sus expectativas.
Los investigadores utilizaron cuatro tareas, a saber, dos problemas de razonamiento léxico y dos complejos de razonamiento ético, para evaluar su enfoque. Según sus hallazgos, un usuario puede entrenar de forma interactiva un GPT-3 desplegado mejorando la precisión general a través de varias consultas que representan varios malentendidos. MemPrompt, para decirlo brevemente, es una arquitectura flexible que simboliza un paso hacia el desarrollo de mejoras de utilidades de bajo costo, incluso para modelos de lenguaje preentrenados muy grandes. Tiene varias aplicaciones, pero la personalización, donde las preferencias del usuario pueden almacenarse en la memoria del modelo para moldear un modelo según sus deseos, es una de las más importantes. Se puede acceder a más detalles sobre MemPrompt aquí.