Share
Beitragsbild zu Ex-Forscher wirft OpenAI mangelnde Transparenz bei kritischen Studienergebnissen vor

Ex-Forscher wirft OpenAI mangelnde Transparenz bei kritischen Studienergebnissen vor

27. Dezember 2025

Zwei Forscher haben das Wirtschaftsteam von OpenAI verlassen und bemängeln die Publikationspraxis des Unternehmens. Der Vorwurf: Studien zu negativen ökonomischen Auswirkungen künstlicher Intelligenz würden zurückgehalten, während positive Darstellungen bevorzugt publiziert werden.

Kritik an Veröffentlichungspolitik nimmt zu

OpenAI steht in der Kritik, Forschungsergebnisse zu potentiellen wirtschaftlichen Nachteilen seiner KI-Systeme nicht zu veröffentlichen. Wie das Magazin Wired unter Berufung auf vier Quellen berichtet, haben mindestens zwei Mitarbeiter des Wirtschaftsforschungsteams das Unternehmen aus diesem Grund verlassen.

Der Ökonom Tom Cunningham gehörte zu den Abgängen. In seiner internen Abschiedsnachricht beschrieb er die Entwicklung des Teams als Wandel von unabhängiger Forschungsarbeit hin zu unternehmensfreundlicher Kommunikation.

Interne Diskussion über Forschungsauftrag

Nach Cunninghams Weggang äußerte sich Jason Kwon, Chief Strategy Officer bei OpenAI, in einem Memo zur Rolle des Forschungsteams. Er stellte klar, dass das Unternehmen nicht ausschließlich als Forschungsinstitution agiere, sondern als führender Akteur im KI-Sektor Verantwortung für Lösungsansätze übernehmen müsse – nicht nur für die Identifikation von Problemen.

Die Auseinandersetzung verdeutlicht den Zielkonflikt zwischen wissenschaftlicher Unabhängigkeit und wirtschaftlichen Interessen eines kommerziell orientierten Unternehmens.

Vom Non-Profit zum Börsenkandidat

Die Entwicklung spiegelt OpenAIs grundsätzlichen Kurswechsel wider. 2016 als gemeinnützige Initiative mit Open-Source-Ansatz gestartet, arbeitet das Unternehmen heute mit geschlossenen Modellen und gewinnorientierten Strukturen. Berichten zufolge strebt OpenAI einen Börsengang mit einer Bewertung von einer Billion US-Dollar an.

Das Unternehmen hat Investitionen in Milliardenhöhe erhalten und umfangreiche Verträge geschlossen, darunter Vereinbarungen über bis zu 250 Milliarden US-Dollar mit Microsoft für Cloud-Dienste. Bei solchen Summen könnten kritische Forschungsergebnisse zum Thema Arbeitsplatzverluste oder wirtschaftliche Verwerfungen geschäftsschädigend wirken.

Positive Studien bevorzugt?

Die aktuelle Wirtschaftsforschung unter Leitung von Aaron Chatterji veröffentlichte im September einen Bericht zur weltweiten ChatGPT-Nutzung, der Produktivitätssteigerungen als wirtschaftlichen Mehrwert interpretierte. Ein ehemaliger OpenAI-Ökonom, der anonym bleiben wollte, erklärte gegenüber Wired, das Unternehmen publiziere zunehmend Arbeiten, die die eigene Technologie positiv darstellen.

Weitere Abgänge aus Sicherheitsgründen

Cunningham ist nicht der einzige Mitarbeiter, der OpenAI aus ethischen Erwägungen verlassen hat. William Saunders, ehemals im inzwischen aufgelösten Superalignment-Team tätig, begründete seinen Weggang mit der Priorisierung neuer Produktveröffentlichungen gegenüber Nutzersicherheit.

Steven Adler, früherer Sicherheitsforscher, hat das Unternehmen nach seinem Ausscheiden wiederholt für riskante Entwicklungspraktiken kritisiert. Er verwies dabei auf Berichte über psychische Belastungen bei ChatGPT-Nutzern. Miles Brundage, ehemaliger Leiter der Politikforschung, gab nach seinem Weggang an, die Publikation von Forschung zu relevanten Themen sei zunehmend schwierig geworden.

Gesellschaftliche Dimension der KI-Entwicklung

Die Debatte um OpenAIs Forschungspraxis berührt grundsätzliche Fragen zur KI-Entwicklung. Neben wirtschaftlichen Aspekten wie potentiellen Arbeitsplatzverlusten stehen auch ökologische Faktoren im Fokus: Der stark gestiegene Energiebedarf für KI-Systeme führt zu höheren Stromkosten und verstärkter Nutzung fossiler Energieträger.

Die Diskussion zeigt den Konflikt zwischen technologischem Fortschritt, kommerziellen Interessen und gesellschaftlicher Verantwortung. Während neue Technologien Chancen bieten, erfordern ihre Auswirkungen eine transparente wissenschaftliche Begleitung – eine Aufgabe, die nach Ansicht der Kritiker bei OpenAI nicht mehr ausreichend erfüllt wird.

Über OpenAI: Das 2016 gegründete Unternehmen entwickelt KI-Systeme wie ChatGPT und hat sich von einer gemeinnützigen Open-Source-Initiative zu einem der wertvollsten privaten Technologieunternehmen entwickelt. CEO Sam Altman leitet das Unternehmen seit seiner Umstrukturierung zu einer gewinnorientierten Organisation.

Hier geht’s weiter


Bild/Quelle: https://depositphotos.com/de/home.html