Predicciones GPT-4: aciertos y errores

Estás leyendo la publicación: Predicciones GPT-4: aciertos y errores

El gato finalmente está fuera de la bolsa. GPT-4 está aquí y tiene al mundo ocupado. APUNTAR publicó predicciones GPT-4 horas antes del lanzamiento sorpresa de OpenAI. Si bien es posible que hayan brindado una demostración en vivo de GPT-4 para desarrolladores, no fue concreto al abordar algunas de las características críticas que todos esperaban.

La mayor oferta de GPT-4, como se predijo, es su modelo de multimodalidad donde es capaz de procesar entradas de imagen y texto para producir salida de texto. La característica supuestamente encontrará uso en sistemas de diálogo, resúmenes de texto y traducción automática. Sin embargo, OpenAI no habló sobre los parámetros y la capacidad de GPT-4.

Multimodalidad

La mayor predicción de la multimodalidad se abordó parcialmente con la integración de imágenes. En el evento de Microsoft Alemania de la semana pasada, cuando el CTO Andreas Braun anunció la posibilidad de multimodalidad en GPT-4, la integración de imagen, video, audio y muchas más características parecía una posibilidad. Sin embargo, la demostración para desarrolladores de GPT-4 solo mostró la integración de imágenes.

Greg Brockman, presidente y cofundador de OpenAI, explicó que la función de imagen en GPT-4 está en modo de vista previa y es simplemente un “adelanto”. Agregó además que aún no está disponible públicamente y que todavía se están asociando con ‘Be My Eyes’, una empresa emergente que trabaja para crear tecnología para ayudar a las personas ciegas o con baja visión.

En la demostración, GPT-4 pudo describir lógicamente una imagen, como “¿Por qué esta imagen es graciosa?”, una función que se propuso en Kosmos-1 de Microsoft, donde se utiliza la multimodalidad para analizar imágenes y generar resultados. GPT-4 puede comprender imágenes y expresar ideas lógicas sobre ellas.

🔥 Recomendado:  Secretos probados para campañas de correo electrónico que convierten
Fuente: transmisión en vivo del desarrollador OpenAI GPT-4

GPT-4 también está equipado para leer mensajes escritos a mano con instrucciones específicas y convertirlos al resultado requerido.

Parámetros para GPT-4

OpenAI no habló sobre los parámetros en los que se entrena GPT-4, dejando la gran predicción de si GPT-4 está entrenado en 100 billones de parámetros, como se rumorea,irresoluto. Aunque la pregunta fue refutada por Sam Altman en una entrevista en enero, OpenAI no confirmó lo mismo. OpenAI tampoco habló sobre los costos o el tipo de soporte técnico que utilizó para construir GPT-4.

Sin embargo, OpenAI habló extensamente sobre la función de texto avanzada en GPT-4, lo que necesariamente significa que se emplearon más parámetros para entrenar el nuevo modelo. GPT-4 puede leer, analizar y generar hasta 25000 palabras de texto, que es “8 veces más que ChatGPT”. Además, incluso puede escribir código en todos los idiomas principales. La comparación constante con su modelo GPT-3 fue casi como una afirmación de cómo este modelo es mejor que ChatGPT..

Fuente: Introducción a OpenAI GPT-4 (youtube.com)

alucinaciones

Los expertos en inteligencia artificial mencionaron predicciones sobre el aumento de las alucinaciones de los LLM; el riesgo es notablemente mayor con GPT-4. Gary Marcus también había mencionado cómo entrenar grandes conjuntos de datos traerá más alucinaciones a primer plano. Sin embargo, Sam Altman desacreditó la predicción.. Altman mencionó que GPT-4 alucinará “significativamente menos” y será “menos sesgado”, sin embargo, no se ofreció claridad sobre cómo se materializará. Con Brockman enfatizando cómo OpenAI funcionará continuamente para “hacer que el sistema funcione más rápido”, la afirmación de menos alucinaciones solo se puede confirmar con el tiempo.

🔥 Recomendado:  Cómo crear una serialización de cuadrícula de productos en Magento 2

GPT-4 mucho más grande que GPT-3

En noviembre de 2022, APUNTAR había hablado sobre cómo GPT-4 será mucho más grande que GPT-3 y realizará tareas que GPT-3 no puede. En el video de demostración para desarrolladores, Brockman detalla tareas que antes no eran posibles con GPT-3. Hace hincapié en “cómo trabajar con el sistema para realizar una tarea que a ninguno de nosotros nos gusta hacer pero tenemos que hacer” y continúa explicando cómo GPT-4 puede ayudarlo con sus “impuestos”.

Con el enfoque en que GPT-4 ofrece mucho más que su predecesor, OpenAI parecía centrarse en adquirir nuevos usuarios, ya que seguían mencionando cómo se había probado el nuevo modelo durante meses para “adecuarlo a la sociedad” y “agregar valor a la vida cotidiana”. . Anteriormente se mencionó que habría una mayor integración de la plataforma con LLM y el anuncio de GPT-4 condujo a anuncios de colaboración. Centrándose en la educación y la aprobación de exámenes en línea, GPT-4 tenía como objetivo llegar al “segmento de enseñanza”. Esto fue evidente en los anuncios de plataformas de educación en línea como Khan Academy y Duolingo que se produjeron en el momento del evento de lanzamiento de GPT-4.

Si bien las predicciones generales de GPT-4 se hicieron realidad, la falta de claridad de OpenAI nos ha impedido concluir la magnitud exacta de GPT-4. Con el tiempo y una mayor adopción, los casos de uso serán el único factor de confirmación para comprender cuánto de sus afirmaciones son ciertas.