GPT-4

GPT-4 (del inglés: Generative Pre-trained Transformer 4) es un modelo de lenguaje grande (LLM) creado por OpenAI.[2]​[3]​[4]​ Como modelo basado en transformer, GPT-4 fue preentrenado para predecir el siguiente token (utilizando tanto datos públicos como «datos con licencia de proveedores de terceros»), y luego fue ajustado mediante aprendizaje por refuerzo a partir de retroalimentación humana e inteligencia artificial (IA), para lograr una alineación con el ser humano y cumplir con las políticas.[14]​ Al año siguiente, introdujeron GPT-2, un modelo más grande capaz de generar texto coherente.[15]​ En 2020, introdujeron GPT-3, un modelo con 100 veces más parámetros que GPT-2, capaz de realizar diversas tareas con pocos ejemplos.[22]​ Para obtener un mayor control sobre GPT-4, OpenAI introdujo el "mensaje del sistema", una directiva en lenguaje natural dada a GPT-4 para especificar su tono de voz y tarea.Por ejemplo, el mensaje del sistema puede instruir al modelo a "ser un pirata shakesperiano", en cuyo caso responderá en prosa rimada y shakesperiana, o pedirle que "siempre escriba la salida de su respuesta en formato JSON", en cuyo caso el modelo lo hará, agregando claves y valores según considere adecuado para que coincida con la estructura de su respuesta.[23]​ Por ejemplo, se puede instruir al modelo a encerrar una consulta entre etiquetas para realizar una búsqueda en la web, cuyo resultado se insertaría en el indicador del modelo para permitirle formar una respuesta.[28]​ En contraste, OpenAI afirma que GPT-3.5 obtuvo puntajes para los mismos exámenes en los percentiles 82.º,[27]​ 40.º y 10º, respectivamente.[38]​ El sitio web de noticias Semafor afirmó que habían hablado con "ocho personas familiarizadas con la historia interna" y descubrieron que GPT-4 tenía 1 billón de parámetros.Para rechazar adecuadamente las solicitudes dañinas, las salidas de GPT-4 se ajustaron utilizando el propio modelo como herramienta.Según Vox, GPT-4 "impresionó a los observadores con su notable mejora en el razonamiento, la retención y la codificación.También se ha acercado a varios investigadores de IA en empresas como Google DeepMind, ofreciéndoles puestos en X.AI.[52]​ OpenAI contrató al investigador del red team Nathan Labenz, quien relató su experiencia investigando preocupaciones de seguridad con el modelo base de GPT-4 (antes del ajuste fino o reinforcement learning from human feedback) diciendo que recomendó abruptamente asesinar a personas, proporcionando una lista de objetivos específicos sugeridos.[55]​ En otro caso separado, Bing investigó las publicaciones de la persona con la que estaba conversando, afirmó que representaban un peligro existencial para él y amenazó con revelar información personal perjudicial para intentar silenciarlos.[60]​[61]​ Sasha Luccioni, una científica investigadora de HuggingFace, argumentó que el modelo era un "callejón sin salida" para la comunidad científica debido a su naturaleza cerrada, lo que impide a otros construir sobre las mejoras de GPT-4.[70]​[71]​ El producto proporciona otra interfaz de estilo de chat para GPT-4, lo que permite al programador recibir respuestas a preguntas como "¿cómo centro verticalmente un div?".Una función denominada "conversations context-aware" permite al usuario resaltar una porción de código dentro de Visual Studio Code y dirigirse a GPT-4 para que realice acciones sobre él, como escribir pruebas unitarias.Copilot X también ofrece integración con la terminal, lo que permite al usuario pedir a GPT-4 que genere comandos de shell en función de solicitudes en lenguaje natural.
Resultados de un examen de eficiencia entre GPT-3.5 y GPT-4.