OpenAI está implementando nuevas funciones beta para los miembros de ChatGPT Plus en este momento. Los suscriptores han reportado que la actualización incluye la capacidad de subir archivos y trabajar con ellos, así como soporte multimodal. Básicamente, los usuarios no tendrán que seleccionar modos como "Navegar con Bing" de la lista desplegable de GPT-4. En su lugar, el modelo adivinará lo que desean basándose en el contexto.

Las nuevas funciones aportan un toque de las características empresariales ofrecidas por el ChatGPT Enterprise al servicio de suscripción individual del chatbot independiente. Parece que no tengo la actualización multimodal en mi propio plan Plus, pero pude probar la función de Análisis Avanzado de Datos, que parece funcionar como se esperaba. Una vez que se alimenta el archivo a ChatGPT, tarda unos momentos en procesarlo antes de estar listo para trabajar, y luego el chatbot puede hacer cosas como resumir datos, responder preguntas o generar visualizaciones de datos según los estímulos.

El chatbot no se limita únicamente a archivos de texto. En Threads, un usuario publicó capturas de pantalla de una conversación en la que subió una imagen de un carpincho y le pidió a ChatGPT que, a través de DALL-E 3, creara una imagen al estilo de Pixar basada en ella. Luego, iteraron sobre el concepto de la primera imagen subiendo otra imagen, esta vez de una patineta ondulante, y le pidieron que insertara esa imagen. Por alguna razón, ¡también le puso un sombrero!