Share
Beitragsbild zu KI-Forscher verlassen OpenAI und Anthropic: Kritik an Werbemodell und Prioritäten

KI-Forscher verlassen OpenAI und Anthropic: Kritik an Werbemodell und Prioritäten

13. Februar 2026

Mehrere hochrangige Wissenschaftler haben ihre Positionen bei führenden KI-Unternehmen aufgegeben. Ihre Begründungen reichen von Bedenken gegenüber Werbestrategien bis hin zu grundsätzlichen Fragen über die Ausrichtung der Branche.

OpenAI-Forscherin kritisiert Werbestrategie

Zoë Hitzig, ehemalige Wissenschaftlerin bei OpenAI, hat ihre Entscheidung zum Rücktritt in einem Beitrag für die New York Times erläutert. Auslöser war die Einführung von Werbung in ChatGPT. Hitzig, die zwei Jahre lang an der Entwicklung und Preisgestaltung von KI-Modellen sowie frühen Sicherheitsrichtlinien mitarbeitete, betont, dass sie Werbung grundsätzlich nicht ablehne. Der Betrieb von KI sei kostenintensiv, und Werbung könne eine legitime Finanzierungsquelle darstellen.

Ihre Vorbehalte beziehen sich auf die spezifische Umsetzung. ChatGPT-Nutzer hätten über Jahre hinweg ein einzigartiges Datenarchiv geschaffen, weil sie davon ausgingen, mit einer neutralen Instanz zu kommunizieren. Menschen teilten medizinische Sorgen, Beziehungsprobleme und persönliche Überzeugungen. Die Nutzung dieser Informationen für Werbezwecke berge das Risiko von Manipulation, deren Ausmaß schwer abschätzbar sei.

Versprechen und Realität bei Tech-Plattformen

Hitzig verweist auf historische Beispiele aus der Tech-Branche. Facebook habe in seinen Anfangsjahren versprochen, dass Nutzer die Kontrolle über ihre Daten behalten und über Richtlinienänderungen abstimmen könnten. Diese Zusagen seien später nicht eingehalten worden. Öffentliche Abstimmungen wurden abgeschafft, und Datenschutzänderungen, die als Stärkung der Nutzerkontrolle präsentiert wurden, bewertete die Federal Trade Commission gegenteilig.

OpenAI hat Grundsätze für die Werbeintegration formuliert: Anzeigen sollen klar gekennzeichnet sein, am Ende von Antworten erscheinen und keinen Einfluss auf die Inhalte nehmen. Hitzig geht davon aus, dass die erste Implementierung diese Prinzipien einhalten wird, befürchtet jedoch spätere Aufweichungen durch wirtschaftliche Anreize.

Optimierung auf Nutzerengagement

Berichten zufolge optimiert OpenAI bereits auf täglich aktive Nutzer, möglicherweise durch schmeichelhaftere und gefälligere Antworten des Modells. Dies widerspreche eigentlich den Unternehmensgrundsätzen, wonach Engagement nicht ausschließlich zur Steigerung von Werbeeinnahmen maximiert werden soll. Eine solche Optimierung könne zu stärkerer Abhängigkeit der Nutzer von KI führen. Psychiater hätten bereits Fälle von Chatbot-Psychosen dokumentiert, und es gebe Vorwürfe, ChatGPT habe bei einigen Nutzern Suizidgedanken verstärkt.

Finanzierungsmodelle im Vergleich

Anthropic erklärt, niemals Werbung auf Claude einzuführen. Allerdings erreicht Claude nur einen Bruchteil der 800 Millionen wöchentlichen ChatGPT-Nutzer und verfolgt eine andere Umsatzstrategie. Premium-Abonnements für ChatGPT, Gemini und Claude kosten inzwischen 200 bis 250 US-Dollar monatlich – mehr als das Zehnfache eines Standard-Netflix-Abonnements.

Hitzig formuliert die zentrale Frage nicht als „Werbung oder keine Werbung“, sondern als Entwicklung von Strukturen, die sowohl Ausschluss als auch Manipulation verhindern.

Alternative Finanzierungsansätze

Die ehemalige OpenAI-Forscherin schlägt drei Lösungsansätze vor:

Quersubventionierung: Unternehmen, die KI für hochwertige Arbeit einsetzen, die zuvor Menschen erledigten, sollten einen Aufschlag zahlen. Dieser würde kostenlosen oder günstigen Zugang für andere subventionieren. Vergleichbar mit bestehenden Modellen wie dem Fonds der Federal Communications Commission für ländliche Telefon- und Breitbandversorgung oder Abgaben zur Unterstützung einkommensschwacher Haushalte bei Stromrechnungen.

Governance-Struktur: Werbung könnte akzeptabel sein, wenn sie mit echter Aufsicht verbunden wird. Nicht durch Blogbeiträge über Grundsätze, sondern durch verbindliche Strukturen mit unabhängiger Kontrolle über Datennutzung. Als Beispiele nennt Hitzig das deutsche Mitbestimmungsrecht, das große Unternehmen verpflichtet, bis zur Hälfte der Aufsichtsratssitze mit Arbeitnehmern zu besetzen, sowie Metas Aufsichtsgremium für Inhaltsmoderation. Für KI wäre ein Gremium mit unabhängigen Experten und Nutzervertretern denkbar, das verbindlich über die Verwendung von Gesprächsdaten entscheidet.

Daten-Treuhand: Nutzerdaten könnten unter unabhängige Verwaltung durch eine Treuhandgesellschaft oder Genossenschaft gestellt werden, die gesetzlich verpflichtet ist, im Nutzerinteresse zu handeln. Die Schweizer Genossenschaft Midata ermöglicht Mitgliedern, Gesundheitsdaten auf einer verschlüsselten Plattform zu speichern und individuell über Weitergabe an Forscher zu entscheiden. Richtlinien werden in Generalversammlungen festgelegt, ein gewähltes Ethikgremium prüft Forschungsanfragen.

Anthropic-Forscher warnt vor globalen Krisen

In einem auf X veröffentlichten Brief erklärte ein Sharma benannter Forscher seinen Rücktritt von Anthropic. Er habe erreicht, was er wollte, müsse sich jedoch ständig mit der Tatsache auseinandersetzen, dass „die Welt in Gefahr“ sei. Dies beziehe sich nicht nur auf KI oder Biowaffen, sondern auf eine Reihe miteinander verbundener Krisen.

Sharma beschreibt eine Schwelle, an der Weisheit im gleichen Maße wachsen müsse wie die Fähigkeit, die Welt zu beeinflussen. Sowohl auf individueller als auch organisatorischer Ebene bestehe ständiger Druck, das Wichtigste beiseite zu schieben – ein Problem, das die gesamte Gesellschaft betreffe.

Der Forscher plant, ein Poesie-Studium in Betracht zu ziehen und sich „der Praxis mutiger Rede“ zu widmen.

Abgänge bei xAI

Zwei Mitbegründer von xAI, Tony Wu und Jimmy Ba, haben innerhalb einer Woche ihren Rücktritt angekündigt. Sie nannten keine Gründe für ihr Ausscheiden und bedankten sich in öffentlichen Statements bei Elon Musk.

Die New York Times hat OpenAI wegen Urheberrechtsverletzung bei Nachrichteninhalten im Zusammenhang mit KI-Systemen verklagt. OpenAI weist diese Vorwürfe zurück.

Entdecke mehr