¿En qué se diferencia la naturaleza orientable de GPT-4 de los modelos de lenguaje extenso (LLM) anteriores?

Estás leyendo la publicación: ¿En qué se diferencia la naturaleza orientable de GPT-4 de los modelos de lenguaje extenso (LLM) anteriores?

El lanzamiento del nuevo GPT 4 de OpenAI ya está recibiendo mucha atención. Este último modelo es una gran adición a los esfuerzos de OpenAI y es el último hito en la improvisación de Deep Learning. GPT 4 viene con nuevas capacidades debido a su naturaleza multimodal. A diferencia de la versión anterior, GPT 3.5, que solo permite que ChatGPT tome entradas de texto, la última GPT-4 acepta texto e imágenes como entrada. GPT-4, con su arquitectura de transformador, muestra un rendimiento a nivel humano debido a su naturaleza más confiable y creativa en comparación con sus predecesores.

Cuando hablamos del modelo GPT 4 de OpenAI, se lo llama más orientable en comparación con las versiones anteriores. Recientemente, en un hilo de Twitter, un investigador de IA nombró cameron r wolfe discutió el concepto de direccionabilidad en Large Language Models (LLM), específicamente en el caso del último GPT 4. La direccionabilidad se refiere básicamente a la capacidad de controlar o modificar el comportamiento de un modelo de lenguaje. Esto incluye hacer que el LLM adopte diferentes roles, siga instrucciones particulares según el usuario o hable con un tono determinado.

La capacidad de dirección le permite a un usuario cambiar el comportamiento de un LLM a pedido. En su tweet, Cameron también mencionó cómo la versión anterior de GPT-3.5 utilizada por el conocido ChatGPT no era muy manejable y tenía limitaciones para las aplicaciones de chat. En su mayoría, ignoraba los mensajes del sistema y sus diálogos en su mayoría constituían una persona o tono fijo. GPT-4, por el contrario, es más confiable y capaz de seguir instrucciones detalladas.

🔥 Recomendado:  Los 10 principales beneficios del marketing en redes sociales para una empresa

En GPT-4, OpenAI ha proporcionado controles adicionales dentro de la arquitectura GPT. Los mensajes del sistema ahora permiten a los usuarios personalizar el estilo y las tareas de la IA de manera deseable. Un usuario puede prescribir convenientemente el tono, la elección de palabras y el estilo de la IA para recibir una respuesta más específica y personalizada. El autor ha explicado que GPT-4 se entrena mediante un entrenamiento previo autosupervisado y un ajuste fino basado en RLHF. El aprendizaje reforzado a partir de comentarios humanos (RLHF) incluye entrenar el modelo de lenguaje utilizando comentarios de evaluadores humanos, que sirve como una señal de recompensa para evaluar la calidad del texto generado.

Para hacer que GPT-4 sea más manejable, más seguro y menos probable que produzca información falsa o engañosa, OpenAI ha contratado expertos en múltiples campos para evaluar el comportamiento del modelo y proporcionar mejores datos para el ajuste fino basado en RLHF. Estos expertos pueden ayudar a identificar y corregir errores o sesgos en las respuestas del modelo, asegurando resultados más precisos y confiables.

La capacidad de dirección se puede usar de muchas maneras, como usar el mensaje del sistema de GPT -4 para realizar ciertas llamadas a la API. Un usuario puede ordenarle que escriba en un estilo o tono diferente, o con voz al indicar mensajes como “Eres un experto en datos” y hacer que explique un concepto de ciencia de datos. Cuando se estableció como un “tutor socrático” y se le preguntó cómo resolver una ecuación lineal, GPT-4 respondió diciendo: “Empecemos analizando las ecuaciones”. En conclusión, la capacidad de dirección de GPT-4 brinda un mayor control sobre el comportamiento de un LLM, lo que permite aplicaciones más diversas y efectivas. Todavía puede alucinar hechos y cometer errores de razonamiento, pero sigue siendo un desarrollo muy significativo en la industria de la IA.