OpenAI hat eine signifikante Verbesserung der Geschwindigkeit seiner GPT-5.2- und GPT-5.2-Codex-Modelle angekündigt. Laut Foresight News wurde die Geschwindigkeit dieser Modelle um 40 % erhöht, was allen API-Nutzern zugutekommt. OpenAI erklärte, dass diese Optimierung mit den gleichen Modellen und Gewichten erreicht wurde, was zu einer reduzierten Latenz führte.
