Estás leyendo la publicación: Resumen de ChatGPT-4: todas las funciones nuevas anunciadas Por Anthony Spadafora, Malcolm McMillan publicado el 15 de marzo de 23 Todo lo anunciado en el debut de OpenAI de su nuevo modelo de lenguaje GPT-4.
Actualizar
2023-03-14T19:16:29.601Z
¡Bienvenido a nuestra cobertura de OpenAI GPT-4 Developer Livestream! OpenAI ya anunció el nuevo modelo GPT-4 en un anuncio de producto en su sitio web hoy y ahora lo están siguiendo con una vista previa en vivo para desarrolladores.
Las promesas iniciales suenan impresionantes. OpenAI afirma que GPT-4 puede “tomar y generar hasta 25,000 palabras de texto”. Eso es significativamente más que las 3000 palabras que ChatGPT puede manejar. Pero la mejora real son las capacidades multimodales de GPT-4, lo que permite que la IA del chatbot maneje imágenes y texto. Basado en un evento de prensa de Microsoft a principios de esta semana, se espera que las capacidades de procesamiento de video eventualmente hagan lo mismo.
2023-03-14T19:42:03.837Z
Ahora estamos a menos de 30 minutos de OpenAI GPT-4 Developer Livestream, que puede ver en el canal de YouTube de OpenAI.
2023-03-14T19:58:49.290Z
OpenAI no es la única empresa que ha hecho un gran anuncio de IA hoy. Anteriormente, Google anunció sus últimas herramientas de IA, incluida la nueva funcionalidad de IA generativa para Google Docs y Gmail.
2023-03-14T19:58:54.079Z
¡Y nos vamos! Greg Brockman está aquí para hablar sobre el nuevo modelo GPT-4. Puede ir a Discord de OpenAI para enviar una pregunta.
2023-03-14T20:11:17.602Z
En primer lugar, nos estamos centrando en la función Chat Completions Playground que forma parte del kit de API al que tienen acceso los desarrolladores. Esto permite a los desarrolladores entrenar y dirigir el modelo GPT hacia los objetivos de los desarrolladores.
En esta demostración, GPT-3.5, que impulsa la vista previa de investigación gratuita de ChatGPT, intenta resumir la publicación de blog que el desarrollador ingresó en el modelo, pero realmente no tiene éxito, mientras que GPT-4 maneja el texto sin problemas. Si bien esta es definitivamente una función para desarrolladores, es genial ver la funcionalidad mejorada del nuevo modelo de OpenAI.
2023-03-14T20:22:27.902Z
A continuación: construir con GPT-4. En esta demostración, OpenAI usa GPT-4 para construir un bot de Discord. OpenAI afirma que GPT-3.5 no pudo manejar esta tarea en absoluto, especialmente porque se le pide al bot que maneje las entradas de texto e imagen. Las capacidades multimodales de GPT-4 permiten a los desarrolladores incluso usar imágenes.
Si bien el bot no pudo manejar la entrada de la imagen al instante, y todavía no está exento de errores, pudo reconocer la imagen proporcionada en Discord y proporcionar contexto a partir de la imagen. Definitivamente, algo que el ChatGPT gratuito actual no puede hacer.
2023-03-14T20:29:16.531Z
Bien, esto es realmente genial. Usando el bot Discord creado en GPT-4 Playground, OpenAI pudo tomar una foto de una maqueta de un sitio web escrito a mano (ver foto) y convertirla en un sitio web funcional con contenido nuevo generado para el sitio web. Si bien OpenAI dice que esta herramienta aún está en desarrollo, eso podría ser un gran impulso para aquellos que esperan crear un sitio web sin tener la experiencia para codificar sin la ayuda de GPT.
2023-03-14T20:34:28.707Z
Y ahora tenemos GPT haciendo impuestos. Si bien GPT no es un profesional de impuestos, sería genial ver que GPT-4 o un modelo posterior se convierta en una herramienta fiscal que permita a las personas circunnavegar la industria de preparación de impuestos y manejar incluso las declaraciones más complicadas.
2023-03-14T20:36:37.720Z
Y eso es todo para la transmisión en vivo del desarrollador GPT-4. Si bien no pudimos ver algunas de las funciones para el consumidor que nos hubieran gustado, fue una transmisión en vivo enfocada en el desarrollador, por lo que no estamos terriblemente sorprendidos. Aún así, definitivamente hubo algunos aspectos destacados, como crear un sitio web a partir de un dibujo escrito a mano, y ver las capacidades multimodales en acción fue emocionante. Con suerte, se revelarán más en un futuro cercano.