On February 13, 2026, we’ll retire GPT 4o, GPT 4.1, GPT 4.1 mini, and OpenAI o4-mini from ChatGPT.
Custom GPTs in your workspace can continue using GPT-4o until April 3, 2026. After that, they’ll automatically switch to the latest default model. GPT owners can review and update configuration settings at any time during this transition period.
GPT-5.2 is the current default model in ChatGPT. It’s our most capable model yet for professional work, and most usage has already shifted to it.
Diese Nachricht haben Admins von ChatGPT erhalten. OpenAI hatt schon etwas länger angekündigt, dass das Sprachmodell GPT-4o, zusammen mit GPT-4.1, GPT-4.1 mini und o4-mini, aus ChatGPT entfernt wird.
Das ist schon in gewisser Weise das Ende einer Ära. Schließlich war 4o vor Kurzem noch das State-of-the-Art-Modell (SOTA), das erste wirklich multimodale Modell von OpenAI.
Bye-bye ChatGPT-4o… lass uns zurückblicken!
GPT-4o (oft „omni“ genannt) wurde im Mai 2024 veröffentlicht und war ein multimodales Modell, das Text, Bilder und Audio in einer einzigen Konversation verarbeiten konnte. Seine Stärke lag besonders darin, natürlich und menschlich zu interagieren und kreative Antworten zu liefern. Und: Bilder direkt im Chat zu generieren!
Der Rückzug wird nun von OpenAI aber ganz einfach begründet:
- Nur noch sehr wenige Anwender nutzen das Modell aktiv
- GPT-5.1 und vor allem GPT-5.2 als Nachfolger haben viele Funktionen übernommen oder sogar erweitert.
Was bedeutet die Abschaltung konkret für dich?
Wenn du ChatGPT und CustomGPTs im Browser oder der App nutzt…
- GPT-4o verschwindet als auswählbares Modell aus ChatGPT
- Bestehende Chats bleiben erhalten, das zugrunde liegende Modell wechselt
- Der Standard ist aktuell GPT-5.2
- Custom GPTs laufen noch bis April 2026 auf GPT-4o und wechseln dann automatisch
Also eigentlich gar nicht so dramatisch.
Aber Achtung: Gerade bei CustomGPTs kann sich das Promptverhalten verändern, da vormalige Frameworks nicht mehr zutreffen! Wirf gerne einmal einen Blick auf diesen Artikel. Darin zeigen wir, wie gpt-5 gerne gepromptet wird.
Wichtig: GPT-4o verschwindet nicht komplett
Als API-Nutzer könntest du jetzt denken: Mist… Muss ich jetzt alle Prompts, alle Szenarien, alles überarbeiten und testen?
Die gute Neuigkeit: nein!
Die Abschaltung von GPT-4o betrifft ausschließlich das Produkt ChatGPT. Wer das Modell über die OpenAI-API nutzt, kann GPT-4o weiterhin einsetzen. OpenAI trennt sehr klar zwischen dem Lebenszyklus der ChatGPT-Oberfläche und dem Lebenszyklus der API. Änderungen oder Abschaltungen von Modellen in der API werden nicht stillschweigend vorgenommen, sondern separat und mit Vorlauf angekündigt.
Aber dennoch ist es ratsam bereits jetzt mit der Migration zu beginnen, weil durchaus, wie auch bei CustomGPTs, die Ergebnisse mit 5.2 von den Ergebnissen mit 4o abweichen können.
Exkurs: Die Responses API!
Ich mach hier mal noch ein anderes Fass auf. Bereits seit Längerem gibt es die Responses API, die deutlich mehr und bessere Funktionen hat als beispielsweise einfache Chat Completions.
Von Chat Completions zu Responses
- Die Responses API ist der empfohlene Standard
- Sie ersetzt langfristig Chat Completions und Assistants
- Sie unterstützt Web-Search, Text, Bilder, Tools, Dokumente und strukturierte Outputs
Warum das relevant für bestehende Integrationen ist
Die Responses API ist flexibler und umfangreicher als die anderen Endpoints.
Also: Wenn du dir ohnehin die Mühe machst und deine Funktionen migrierst wäre es jetzt auch der richtige Zeitpunkt, um eventuell zu hinterfragen, ob Assistants oder Chat Completions mittlerweile nicht zeitgemäßer sind.
Offizielle OpenAI-Dokumentationen
Warum sich Sprachmodelle heute schneller verändern als früher
Die Geschwindigkeit, mit der sich Sprachmodelle (Large Language Models) weiterentwickeln, hat in den letzten Jahren deutlich zugenommen. Was früher mehrere Jahre stabil blieb, wird heute innerhalb weniger Monate überholt. Ein richtiges Rat Race, angekurbelt durch die Konkurrenz zwischen den großen Anbietern.
Die Modelle sind mittlerweile effizienter aufgebaut, können Informationen gezielter gewichten und verlieren weniger Kontext über längere Dialoge hinweg. Und sie sind günstiger, weil ressourceneffizienter!
Ein entscheidender Punkt ist aber das Reasoning. Das Reasoning, also das logische herleiten ist mittlerweile inhärentes Merkmal aller SOTA.Modelle: mehrschrittig denken, Zusammenhänge herleiten und implizite Annahmen erkennen. Das zeigt sich besonders bei komplexen Aufgaben, bei denen Planung, Abwägung oder Struktur gefragt sind. Hinzu kommen längere und stabilere Kontexte. Gespräche müssen nicht mehr künstlich gekürzt oder zusammengefasst werden, sondern können über viele Schritte hinweg konsistent bleiben. Davor gab es ein Modellchaos (wir haben dazu berichtet…).
Neben diesen technischen Fortschritten spielen produktive Gründe eine mindestens ebenso große Rolle. Neue Modelle sind günstiger im Betrieb, sowohl für OpenAI als auch für Unternehmen, die sie über die API nutzen.
Was sich konzeptionell verändert hat
Wir machen es hier ganz schnell: Es ist einfacher!
Die SOTA-Modelle vereinen Funktionen, die wir uns früher zusammensuchen mussten! Es war richtig kompliziert, du musstest beispielsweise sogar extra Reasoning-Modelle auswählen, wenn du ein bestimmtes Ergebnis wolltest.
Mittlerweile geht das alles in einem, zum Beispiel:
- Textverarbeitung (okay, das ist klar)
- Bildgenerierung
- Spracheingabe
- Reasoning
- Deep Research
- Web-Search
- Dokumentenverarbeitung
- Toolanbindungen
- Kontextspeicherung
Das Ende einer Ära mit 4o
GPT-4o war ohne Frage ein Meilenstein. Es hat Multimodalität erstmals wirklich alltagstauglich gemacht und gezeigt, wie natürlich die Interaktion mit KI sein kann. Mit GPT-5.2 steht heute ein Modell zur Verfügung, das für professionelle Arbeit deutlich besser geeignet ist und viele der früheren Stärken aufgreift und erweitert. Es ist eine Weiterentwicklung!
Wie gut kommst du mit den 5er-Modellen zurecht? Fällt dir auch etwas negativ auf?





