
Ab dem 13. Februar werden mehrere Modelle aus ChatGPT dauerhaft entfernt – unter ihnen GPT-4o, GPT-4.1, GPT-4.1 mini sowie o4-mini. Diese Änderung betrifft nur die ChatGPT-Oberfläche; die zugehörige API bleibt in der Zwischenzeit unverändert.
GPT-4o: Ein Modell mit einer ungewöhnlichen Geschichte
Von allen betroffenen Modellen nimmt GPT-4o eine besondere Rolle ein. OpenAI hatte das Modell anfangs mit der Einführung von GPT-5 bereits stillgelegt – es wurde jedoch kurz darauf wieder aktiviert. Der Grund: Ein Teil der Plus- und Pro-Nutzer meldete zurück, dass die Umstellung auf das neue System mehr Zeit in Anspruch nahme, als erwartet. Besonders in kreativen Arbeitsabläufen und bei der Ideenfindung wurde GPT-4o als bevorzugte Option angegeben; auch der Kommunikationsstil des Modells war ein häufig genannter Aspekt.
Wie das Nutzer-Feedback GPT-5.1 und GPT-5.2 beeinflusste
Diese Rückmeldungen flossen direkt in die Entwicklung von GPT-5.1 und GPT-5.2 ein. OpenAI arbeitet seit dahin an einer deutlichen Verbesserung der Persönlichkeit und des Kreativpotenzials von ChatGPT. Nutzer können nun aus verschiedenen Grundstilen und Tonen wählen – darunter „Freundlich“ – und Parameter wie Herzlichkeit oder Begeisterung individuell anpassen. Das Ziel, so OpenAI, ist es, Nutzern mehr Kontrolle darüber zu geben, wie sich die Interaktion mit ChatGPT anfühlt.
Warum GPT-4o jetzt abgeschaltet wird
Die Entscheidung zur Einstellung von GPT-4o wird mit zwei Faktoren begründet: Erstens seien die relevanten Verbesserungen in den neueren Modellen bereits umgesetzt. Zweitens nutze nur noch etwa 0,1 Prozent der Nutzer täglich GPT-4o – der weit überwiegende Anteil sei bereits auf GPT-5.2 gewechselt.
Weitere Änderungen im Blick
OpenAI kündigt darüber hinaus an, ChatGPT in weiteren Bereichen nachzubessern – insbesondere dort, wo das Nutzer-Feedback klaren Bedarf erkennt. Geplant sind unter anderem Schritte zur Verbesserung der Kreativität sowie zur Reduktion von unnötigen Ablehnung oder übermäßig vorsichtigen Antworten durch das System.
Parallel arbeitet das Unternehmen an einer ChatGPT-Version, die speziell für Nutzer über 18 Jahre konzipiert wird. Der Grundgedanke: Erwachsene sollten in der Nutzung von KI-Werkzeugen mehr Freiheit und Entscheidungsspielraum haben – innerhalb angemessener Sicherheitsrahmenbedingungen. Zum Schutz minderjähriger Nutzer wurde in den meisten Märkte bereits ein Altersverifizierungssystem eingeführt.
Was das bedeutet
OpenAI betont, dass solche Übergänge Zeit brauchen und dass Änderungen im Voraus kommuniziert werden. Das Unternehmen räumt ein, dass der Wegfall von GPT-4o für einen Teil der Nutzerschaft einschneidend sein kann – versichert aber, dass die Entscheidung nach sorgfältiger Abwägung getroffen wurde. Laut OpenAI ermöglicht das Ausmusternen älterer Modelle, die Ressourcen gezielter auf die Weiterentwicklung der aktuell meistgenutzte Systeme einzusetzen.
Verwandte Themen
Fachartikel

Microsoft-Cloud GCC High: Wie FedRAMP eine kritisch bewertete Technologie für US-Behörden genehmigte

CrackArmor: AppArmor-Schwachstellen ermöglichen Root-Zugriff auf über 12 Millionen Linux-Systemen

KI-Agenten als interne Sicherheitsrisiken: Was Experimente zeigen

MCP-Sicherheitsstudie: 555 Server mit riskanten Tool-Kombinationen identifiziert

SOX-Compliance in SAP: Anforderungen, IT-Kontrollen und der Weg zur Automatisierung
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Quantifizierung und Sicherheit mit modernster Quantentechnologie

KI-Betrug: Interpol warnt vor industrialisierter Finanzkriminalität – 4,5-fach profitabler

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien
Hamsterrad-Rebell

Sichere Enterprise Browser und Application Delivery für moderne IT-Organisationen

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen








