Uso del debate multiagente para mejorar el razonamiento y la precisión fáctica de los modelos de lenguaje extenso (LLM)

Estás leyendo la publicación: Uso del debate multiagente para mejorar el razonamiento y la precisión fáctica de los modelos de lenguaje extenso (LLM)

En los últimos tiempos, los modelos de lenguaje grande han logrado captar la atención de todos con sus capacidades avanzadas. Los LLM con algunas capacidades sobresalientes de producción y comprensión de idiomas, como OpenAI’s GPT-3.5, el último GPT 4 multimodal, etc., están siendo utilizados de manera significativa por las industrias. Generar respuestas significativas a las preguntas, resumir indicaciones textuales, traducir idiomas y transformar texto a texto son algunos de los casos de uso.

Los LLM pueden producir de manera eficiente un texto coherente, comprender y responder a las indicaciones, e incluso aprender de una pequeña cantidad de instancias, lo que se denomina aprendizaje de pocos intentos. Con el aprendizaje de pocos disparos, los LLM utilizan información supervisada para clasificar nuevos datos con solo unas pocas muestras de capacitación. Dado que los LLM tienen posibilidades de mejora, en un artículo de investigación reciente, un equipo de investigadores del MIT y Google Brain propusieron un enfoque complementario basado en el “debate de múltiples agentes” para mejorar la calidad de las respuestas lingüísticas generadas por los LLM.

El equipo ha introducido un mecanismo en el que numerosas instancias del LLM participan para proponer y argumentar sus respuestas únicas y procesos de razonamiento en varias rondas, en lugar de confiar únicamente en una instancia modelo. El objetivo es llegar a una respuesta final que haya sido cuidadosamente revisada y mejorada a través de un esfuerzo colaborativo. Este método complementario para mejorar las respuestas lingüísticas utiliza el enfoque de la ‘sociedad de mentes’, que se inspira en la idea de que la inteligencia colectiva de múltiples mentes que trabajan juntas puede conducir a un mejor rendimiento y resultados más precisos.

🔥 Recomendado:  Instalación de parches de seguridad de Magento: la guía completa

Este enfoque implica una serie de modelos o agentes, a todos los cuales se les hace la misma pregunta al principio. Al permitir que estos modelos evalúen y revisen repetidamente sus acciones a la luz de las respuestas de otros agentes, el objetivo es mejorar el rendimiento de estos modelos. El ‘debate multiagente’ utilizado en este método se ha utilizado para mejorar el razonamiento deductivo y la precisión fáctica de los modelos de lenguaje con el fin de utilizar la discusión entre varias instancias del modelo de lenguaje para alcanzar un mejor resultado en la respuesta.

El equipo ha observado mejoras significativas en el razonamiento matemático y estratégico utilizando el enfoque de “sociedad de mentes”, mostrando así cómo la inteligencia colectiva de múltiples instancias de LLM conduce a un mejor rendimiento. El método sugerido también aborda la formación de conclusiones falsas y alucinaciones, una debilidad conocida de los modelos modernos. El equipo ha descubierto que su método reduce la probabilidad de tales errores y aumenta el valor fáctico del contenido generado.

La adaptabilidad de este enfoque es uno de sus beneficios, ya que se puede utilizar con LLM de caja negra que ya existen sin requerir cambios significativos. Todas las tareas investigadas siguen el mismo proceso, con las mismas indicaciones, lo que garantiza la coherencia y la simplicidad de uso. Tras la evaluación, el equipo ha observado que aumentar el número de agentes en un debate multiagente o aumentar el número de rondas de debate mejora el rendimiento de los modelos. También se ha descubierto que el debate entre múltiples agentes puede permitir que dos instancias diferentes de modelos de lenguaje, como ChatGPT y Bard, resuelvan de manera cooperativa una tarea que no pueden resolver individualmente.

🔥 Recomendado:  Cómo cambiar la cantidad sin hacer clic en el botón Actualizar en Mini Cart en Magento 2

En conclusión, la estrategia de ‘sociedad de mentes’ tiene el potencial de mejorar en gran medida el rendimiento de LLM, creando nuevas oportunidades para avances en la creación y comprensión del lenguaje. Al usar este método, los LLM pueden proporcionar respuestas más precisas y confiables, tener mayores habilidades de razonamiento y cometer menos errores que se encuentran con frecuencia en los modelos de lenguaje.