OpenAI stellte GPT-5.4 mini und nano vor

OpenAI hat GPT-5.4 mini und GPT-5.4 nano vorgestellt und sie als seine bislang leistungsfähigsten kleinen Modelle bezeichnet. Das Unternehmen erklärte, die neuen Veröffentlichungen würden viele der Stärken von GPT-5.4 mit einer Architektur verbinden, die auf Geschwindigkeit, Effizienz und hohe Arbeitslasten ausgelegt ist.
Laut der Ankündigung ist GPT-5.4 mini für Programmierung, logisches Denken, multimodale Analyse und den Einsatz von Tools ausgelegt. OpenAI sagt, dass es GPT-5 mini in diesen Bereichen übertrifft und dabei mehr als doppelt so schnell läuft. In Benchmark-Ergebnissen erreichte GPT-5.4 mini 53,40 % bei SWE-bench Pro, 59,30 % bei Terminal-Bench 2.0 und 70,60 % bei OSWorld-Verified und rückte damit in mehreren Tests näher an das vollständige GPT-5.4-Modell heran.
Das Unternehmen erklärte, dass die mini-Version für AI-Assistenten mit geringer Latenz, leichtgewichtige Subagenten, Schnittstellen-Steuerungssysteme, die Screenshots interpretieren, sowie für multimodale Echtzeit-Anwendungen entwickelt wurde. OpenAI argumentiert, dass in solchen Fällen nicht immer das größte Modell das beste ist, sondern dasjenige, das sofort reagiert und zuverlässig mit Tools arbeitet.
GPT-5.4 nano wird als die kleinste und schnellste Version der Reihe präsentiert. Sie ist für Aufgaben gedacht, bei denen Geschwindigkeit und Kosten am wichtigsten sind, darunter Klassifizierung, Datenextraktion, Ranking und einfache Assistenten-Workflows. OpenAI veröffentlichte auch erste Benchmark-Zahlen für nano, darunter 52,39 % bei SWE-bench Pro und 82,83 % bei GPQA Diamond, und erklärte, dass Kunden bereits beide Modelle in Produktionsumgebungen testen.
Lesen Sie „Zamin“ auf Telegram!