
Zwei Forscher haben das Wirtschaftsteam von OpenAI verlassen und bemängeln die Publikationspraxis des Unternehmens. Der Vorwurf: Studien zu negativen ökonomischen Auswirkungen künstlicher Intelligenz würden zurückgehalten, während positive Darstellungen bevorzugt publiziert werden.
Kritik an Veröffentlichungspolitik nimmt zu
OpenAI steht in der Kritik, Forschungsergebnisse zu potentiellen wirtschaftlichen Nachteilen seiner KI-Systeme nicht zu veröffentlichen. Wie das Magazin Wired unter Berufung auf vier Quellen berichtet, haben mindestens zwei Mitarbeiter des Wirtschaftsforschungsteams das Unternehmen aus diesem Grund verlassen.
Der Ökonom Tom Cunningham gehörte zu den Abgängen. In seiner internen Abschiedsnachricht beschrieb er die Entwicklung des Teams als Wandel von unabhängiger Forschungsarbeit hin zu unternehmensfreundlicher Kommunikation.
Interne Diskussion über Forschungsauftrag
Nach Cunninghams Weggang äußerte sich Jason Kwon, Chief Strategy Officer bei OpenAI, in einem Memo zur Rolle des Forschungsteams. Er stellte klar, dass das Unternehmen nicht ausschließlich als Forschungsinstitution agiere, sondern als führender Akteur im KI-Sektor Verantwortung für Lösungsansätze übernehmen müsse – nicht nur für die Identifikation von Problemen.
Die Auseinandersetzung verdeutlicht den Zielkonflikt zwischen wissenschaftlicher Unabhängigkeit und wirtschaftlichen Interessen eines kommerziell orientierten Unternehmens.
Vom Non-Profit zum Börsenkandidat
Die Entwicklung spiegelt OpenAIs grundsätzlichen Kurswechsel wider. 2016 als gemeinnützige Initiative mit Open-Source-Ansatz gestartet, arbeitet das Unternehmen heute mit geschlossenen Modellen und gewinnorientierten Strukturen. Berichten zufolge strebt OpenAI einen Börsengang mit einer Bewertung von einer Billion US-Dollar an.
Das Unternehmen hat Investitionen in Milliardenhöhe erhalten und umfangreiche Verträge geschlossen, darunter Vereinbarungen über bis zu 250 Milliarden US-Dollar mit Microsoft für Cloud-Dienste. Bei solchen Summen könnten kritische Forschungsergebnisse zum Thema Arbeitsplatzverluste oder wirtschaftliche Verwerfungen geschäftsschädigend wirken.
Positive Studien bevorzugt?
Die aktuelle Wirtschaftsforschung unter Leitung von Aaron Chatterji veröffentlichte im September einen Bericht zur weltweiten ChatGPT-Nutzung, der Produktivitätssteigerungen als wirtschaftlichen Mehrwert interpretierte. Ein ehemaliger OpenAI-Ökonom, der anonym bleiben wollte, erklärte gegenüber Wired, das Unternehmen publiziere zunehmend Arbeiten, die die eigene Technologie positiv darstellen.
Weitere Abgänge aus Sicherheitsgründen
Cunningham ist nicht der einzige Mitarbeiter, der OpenAI aus ethischen Erwägungen verlassen hat. William Saunders, ehemals im inzwischen aufgelösten Superalignment-Team tätig, begründete seinen Weggang mit der Priorisierung neuer Produktveröffentlichungen gegenüber Nutzersicherheit.
Steven Adler, früherer Sicherheitsforscher, hat das Unternehmen nach seinem Ausscheiden wiederholt für riskante Entwicklungspraktiken kritisiert. Er verwies dabei auf Berichte über psychische Belastungen bei ChatGPT-Nutzern. Miles Brundage, ehemaliger Leiter der Politikforschung, gab nach seinem Weggang an, die Publikation von Forschung zu relevanten Themen sei zunehmend schwierig geworden.
Gesellschaftliche Dimension der KI-Entwicklung
Die Debatte um OpenAIs Forschungspraxis berührt grundsätzliche Fragen zur KI-Entwicklung. Neben wirtschaftlichen Aspekten wie potentiellen Arbeitsplatzverlusten stehen auch ökologische Faktoren im Fokus: Der stark gestiegene Energiebedarf für KI-Systeme führt zu höheren Stromkosten und verstärkter Nutzung fossiler Energieträger.
Die Diskussion zeigt den Konflikt zwischen technologischem Fortschritt, kommerziellen Interessen und gesellschaftlicher Verantwortung. Während neue Technologien Chancen bieten, erfordern ihre Auswirkungen eine transparente wissenschaftliche Begleitung – eine Aufgabe, die nach Ansicht der Kritiker bei OpenAI nicht mehr ausreichend erfüllt wird.
Über OpenAI: Das 2016 gegründete Unternehmen entwickelt KI-Systeme wie ChatGPT und hat sich von einer gemeinnützigen Open-Source-Initiative zu einem der wertvollsten privaten Technologieunternehmen entwickelt. CEO Sam Altman leitet das Unternehmen seit seiner Umstrukturierung zu einer gewinnorientierten Organisation.
Hier geht’s weiter
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

WRAP-Methode: Effizienter arbeiten mit GitHub Copilot Coding Agent

Wenn IT-Sicherheit zum Risiko wird: Das Phänomen der Cyber-Seneszenz

Cybersicherheit bei Krypto-Börsen: Nur drei Anbieter überzeugen im Security-Check

SIEM-Systeme richtig konfigurieren: Wie Unternehmen Sicherheitslücken in der Bedrohungserkennung schließen

KI-Sicherheit: OpenAI setzt auf automatisiertes Red Teaming gegen Prompt-Injection-Attacken
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung

NIST aktualisiert Publikationsreihe zur Verbindung von Cybersecurity und Enterprise Risk Management

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







