Millones de usuarios en tiempo récord, millones de dólares en inversiones, titanes aterrorizados por su potencial. Todo parece indicar que vivimos en el mundo de ChatGPT, pero detrás del chatbot hay un modelo, y las mentes maestras de OpenAI acaban de anunciar su nueva versión, GPT-4. Al tratarse de un modelo multimodal, GPT-4 puede aceptar imágenes como elementos de entrada, interpretar su contenido, y responder con información más precisa que su predecesor.
OpenAI menciona a través de su página oficial que las diferencias entre GPT-3.5 y GPT-4 pueden ser muy sutiles en una conversación casual, pero todo cambia cuando la complejidad de la tarea cruza un determinado umbral. A partir de allí, GPT-4 demuestra una mayor estabilidad, creatividad, y capacidad al procesar instrucciones específicas. Para respaldar esto, la página presenta una serie de benchmarks que incluye exámenes de muy alto perfil. En todos los casos, el nuevo modelo supera tanto a GPT-3.5 como a otros competidores, por lo que no tendría dificultades para entrar a la universidad.
GPT-4: Aprueba exámenes, interpreta imágenes, ¿entiende bromas?
Sin embargo, uno de los aspectos más impresionantes de GPT-4 es que puede interpretar imágenes. Dicho de otra forma, GPT-4 no es simplemente un modelo de lenguaje, sino que también funciona como modelo visual, aceptando prompts que combinan texto y fotografías. Por ejemplo, la imagen del «cargador VGA» que aparece abajo tiene un perfil viral bastante obvio para nosotros, pero algunas personas necesitan un poco de contexto. Ese no es el caso con GPT-4, que además de describir correctamente la imagen, entendió el chiste a la perfección.
Ahora, analizar imágenes virales es apenas la punta del iceberg para GPT-4. El modelo puede procesar documentos, diagramas, gráficos, ilustraciones y fotografías. Esto parece ser el primer escalón para lo que muchos investigadores llaman «Inteligencia Artificial General» o «IA Fuerte», que supera la inteligencia humana. A finales de febrero, OpenAI publicó un artículo en el que explora el potencial de estos modelos avanzados, pero GPT-4 aún se encuentra lejos de eso. Los sesgos en su dataset de entrenamiento no se fueron a ninguna parte, al igual que sus momentos de delirio.
¿Te gustaría probar GPT-4? Actualmente existen dos opciones. La primera de ellas es suscribirse a ChatGPT Plus, con un costo de 20 dólares mensuales. La segunda… es acceder a la versión mejorada de Bing con inteligencia artificial. Después de la presentación oficial de GPT-4, Microsoft confirmó en el blog oficial de Bing que la compañía utiliza una variante de GPT-4 personalizada para búsquedas. De hecho, todo usuario que haya entrado a Bing en las últimas cinco semanas ya experimentó con GPT-4. ¿Qué estás esperando?
Sitio oficial: Haz clic aquí