Qué es ChatGPT-4: explicación de todas las funciones nuevas

Estás leyendo la publicación: Qué es ChatGPT-4: explicación de todas las funciones nuevas

ChatGPT ya es una herramienta impresionante si sabe cómo usarla, pero pronto recibirá una actualización significativa con el lanzamiento de GPT-4.

Actualmente, la vista previa gratuita de ChatGPT que la mayoría de la gente usa se ejecuta en el modelo GPT-3.5 de OpenAI. Este modelo hizo que el chatbot se volviera súper popular y, aunque hubo algunas fallas notables, cualquier sucesor tendría mucho que cumplir.

Y ese sucesor ya está aquí, aunque OpenAI no solo abrirá las compuertas. OpenAI anunció GPT-4 en su sitio web y dice que GPT-4 primero estará disponible para los suscriptores y desarrolladores de ChatGPT Plus que utilizan la API de ChatGPT.

Aquí está todo lo que sabemos hasta ahora sobre GPT-4 y todas las nuevas funciones que se han anunciado.

¿Qué es GPT-4?

GPT significa Transformador preentrenado generativo. Esta red neuronal utiliza el aprendizaje automático para interpretar datos y generar respuestas, y es más prominente el modelo de lenguaje que está detrás del popular chatbot ChatGPT. GPT-4 es la versión más reciente de este modelo y es una actualización del modelo GPT-3.5 que impulsa la versión gratuita de ChatGPT.

¿Qué tiene de diferente GPT-4?

GPT-3 presentaba más de 175 000 millones de parámetros para que la IA los considerara cuando respondía a un mensaje, y aun respondía en segundos. Por lo general, se espera que GPT-4 se sume a este número, lo que dará como resultado una respuesta más precisa y enfocada. De hecho, OpenAI ha confirmado que GPT-4 puede manejar la entrada y salida de hasta 25 000 palabras de texto, más de 8 veces las 3000 palabras que podría manejar ChatGPT con GPT-3.5.

🔥 Recomendado:  El ISG de Lenovo desafía la gravedad y eleva las ganancias muy por encima de los desafíos de las PC

La otra gran diferencia es que GPT-4 aporta funcionalidad multimodal al modelo GPT. Esto permite que GPT-4 maneje no solo entradas de texto sino también imágenes, aunque por el momento solo puede responder en texto. Es esta funcionalidad la que Microsoft dijo en un evento reciente de IA que eventualmente podría permitir que GPT-4 procese la entrada de video en el modelo de chatbot de IA.

Estas actualizaciones son particularmente relevantes para el nuevo Bing con ChatGPT, que Microsoft confirmó que ha estado usando GPT-4 en secreto. Dado que los motores de búsqueda deben ser lo más precisos posible y proporcionar resultados en múltiples formatos, incluidos texto, imágenes, video y más, estas actualizaciones marcan una gran diferencia.

Microsoft ha dejado claras sus ambiciones de crear una IA multimodal. Además de GPT-4, que se entrenó en las supercomputadoras de Microsoft Azure, Microsoft también ha estado trabajando en la Visual ChatGPT herramienta que permite a los usuarios cargar, editar y generar imágenes en ChatGPT.

Microsoft también necesita esta funcionalidad multimodal para seguir el ritmo de la competencia. Tanto los sistemas de inteligencia artificial de Meta como los de Google ya tienen esta característica (aunque no está disponible para el público en general).

También se rumorea que la última versión del modelo ha mejorado las habilidades de conversación y suena más humano. Algunos incluso han sugerido que será la primera IA en pasar la prueba de Turing después de un tweet críptico del CEO y cofundador de OpenAI, Sam Altman.

Si bien OpenAI no ha confirmado esto explícitamente, sí afirmó que GPT-4 terminó en el percentil 90 del Examen de barra uniforme y en el 99 en la Olimpiada de biología utilizando sus capacidades multimodales. Ambos son mejoras significativas en ChatGPT, que terminó en el percentil 10 para el examen de la barra y el percentil 31 en la Olimpiada de biología.

🔥 Recomendado:  ¿Qué marcas ofrecen la mejor experiencia de cliente?

¿Qué puede hacer GPT-4?

Durante una reciente transmisión en vivo para desarrolladores de GPT-4, el presidente y cofundador de OpenAI, Greg Brockman, mostró algunas de las nuevas características del modelo de lenguaje actualizado, incluidas las capacidades multimodales, donde proporciona contexto para las imágenes e incluso la creación de sitios web.

En esta parte de la demostración, Brockman subió una imagen a Discord y el bot GPT-4 pudo proporcionar una descripción precisa de la misma. Sin embargo, también le pidió al chatbot que explicara por qué la imagen de una ardilla sosteniendo una cámara era divertida, a lo que respondió: “Es una situación graciosa porque las ardillas suelen comer nueces y no esperamos que usen una cámara o actúen como humanos”. “.

Si esto fuera suficiente, la próxima demostración de Brockman fue aún más impresionante. En él, tomó una foto de un código escrito a mano en un cuaderno, lo subió a GPT-4 y ChatGPT pudo crear un sitio web simple a partir del contenido de la imagen.

Una vez que los desarrolladores comiencen a probar GPT-4 en el mundo real, es probable que veamos la última versión del modelo de lenguaje llevada al límite y utilizada para tareas aún más creativas.

Cómo acceder a GPT-4

En este momento, hay algunas formas de acceder al modelo GPT-4, aunque no son para todos.

Si está utilizando el nuevo Bing con ChatGPT, ¡felicidades! Has estado usando GPT-4 en secreto todo este tiempo. Si no ha estado usando el nuevo Bing con sus funciones de inteligencia artificial, asegúrese de consultar nuestra guía para ingresar a la lista de espera y poder obtener acceso anticipado. También parece que una variedad de entidades, desde Duolingo hasta el Gobierno de Islandia, han estado utilizando la API GPT-4 para aumentar sus productos existentes. También puede ser lo que impulsa a Microsoft 365 Copilot, aunque Microsoft aún no lo ha confirmado.

🔥 Recomendado:  Qué significa para usted la represión de Netflix contra el uso compartido de contraseñas

Aparte del nuevo Bing, OpenAI ha dicho que pondrá GPT a disposición de los usuarios de ChatGPT Plus y de los desarrolladores que utilicen la API. Entonces, si usa ChatGPT-4, tendrá que pagarlo, por ahora.

Las mejores ofertas de Logitech MX Master de hoy