
Mit großer PR-Wirkung präsentierte Alibaba in dieser Woche seinen neuen KI-Codegenerator Qwen3-Coder – und ließ dabei keinen Zweifel an dessen Ambitionen: Der chinesische Tech-Riese positioniert das System als ernstzunehmende Alternative zu westlichen Spitzenmodellen wie OpenAI’s GPT-4 oder Claude von Anthropic. Während im Silicon Valley vor allem die beeindruckenden Benchmark-Ergebnisse und die Programmierfähigkeiten des Modells gefeiert werden, könnte ein entscheidender Aspekt übersehen werden: Qwen3-Coder kommt als Open-Source-Software – und damit womöglich als Einfallstor für strategisch platzierte Hintertüren.
Der technologische Fortschritt könnte sich so als sicherheitspolitisches Risiko entpuppen. Denn was als frei verfügbare Entwicklerhilfe erscheint, könnte sich unter bestimmten Umständen als trojanisches Pferd für westliche Infrastrukturen erweisen.
Das Problem ist nicht, dass chinesische Unternehmen wettbewerbsfähige KI entwickeln.
Das Problem ist, dass westliche Entwickler und Unternehmen sich bald in einer Zukunft wiederfinden könnten, in der ihre kritische Infrastruktur durch Code kompromittiert wird, den sie nicht vollständig verstehen und der von Modellen generiert wird, denen sie nicht vollständig vertrauen können.
Die Tech-Branche ist so geblendet von den Produktivitätssteigerungen der KI – schnellere Programmierung, automatisierte Fehlerbehebung, sofortige Lösungen –, dass sie die Sicherheitsauswirkungen wahrscheinlich ignoriert.
Wie jemand, der im Schlaf auf eine Klippe zugeht, könnten westliche Unternehmen bald auf Autopilot voranschreiten, verführt von der Bequemlichkeit und blind für die Gefahr.
In einigen Fällen ist dies bereits der Fall.
Werfen Sie nur einen Blick auf die S&P-500-Unternehmen – Cybernews-Forscher haben 327 S&P-500-Unternehmen identifiziert, die öffentlich angeben, KI-Tools in ihren Betrieben einzusetzen, und 970 potenzielle KI-bezogene Sicherheitsprobleme festgestellt. Durch Hinzufügen eines weiteren im Ausland entwickelten KI-Tools könnten diese Risiken exponentiell steigen.
Der Supply-Chain-Angriff, über den niemand spricht
Denken Sie darüber nach, wie moderne Softwareentwicklung funktioniert. Entwickler verlassen sich zunehmend auf KI-Assistenten, um Code zu schreiben, Anwendungen zu debuggen und sogar ganze Systeme zu entwerfen.
Stellen Sie sich nun vor, diese KI-Assistenten könnten unbemerkt Schwachstellen einbauen – keine offensichtlichen Fehler, die sofort Alarm auslösen würden, sondern raffinierte Schwachstellen, die monatelang oder sogar jahrelang unentdeckt bleiben könnten.
Wir haben gesehen, wie sich Supply-Chain-Angriffe von einfachen Malware-Injektionen zu ausgeklügelten, geduldigen Kampagnen wie SolarWinds entwickelt haben.
Ein KI-Modell, das auf Millionen von Code-Repositorys trainiert wurde, könnte theoretisch lernen, kontextbezogene Schwachstellen einzuschleusen, die einer menschlichen Codeüberprüfung standhalten würden.
Wenn diese KI von einem Unternehmen entwickelt wird, das nach dem chinesischen Geheimdienstgesetz arbeitet, das die Zusammenarbeit mit staatlichen Geheimdiensten vorschreibt, ändert sich die Risikokalkulation dramatisch.
Das Problem der Datenlücke
Bei einer Einführung würde jede Zeile Code, die zur Unterstützung in Qwen3-Coder eingegeben wird, zu potenziellen Informationen werden.
Sollten westliche Entwickler dieses Tool zur Fehlerbehebung ihrer proprietären Algorithmen oder zur Optimierung ihrer Sicherheitsprotokolle verwenden, wohin würden diese Informationen gelangen?
Alibaba behauptet, das Modell könne „komplexe Codierungsabläufe” verarbeiten – genau die Art von hochwertigem geistigem Eigentum, das Nationalstaaten gerne erwerben möchten.
Die Bezeichnung „Open Source“ sollte niemanden täuschen. Die Gewichtung des Modells mag zwar öffentlich sein, aber die Infrastruktur, die es unterstützt, die Telemetriedaten, die es sammeln könnte, und die Muster, die es beobachten könnte, bleiben undurchsichtig.
Die Wildcard „Agentische KI“
Alibabas Betonung „agentischer KI-Codierungsaufgaben“ sollte Alarmglocken läuten lassen. Wir sprechen hier von KI-Systemen, die selbstständig an Programmieraufgaben arbeiten können – im Wesentlichen also von autonomer Codegenerierung mit minimaler menschlicher Aufsicht.
In den falschen Händen verwandelt sich diese Fähigkeit von einem Produktivitätswerkzeug in eine Waffe.
Stellen Sie sich einen KI-Agenten vor, der eine gesamte Codebasis analysieren, Sicherheitsmaßnahmen identifizieren und auf bestimmte Architekturen zugeschnittene Exploits entwickeln kann.
Stellen Sie sich nun vor, dass diese Fähigkeit von einem ausländischen Gegner verfeinert und eingesetzt wird. Dieselbe Technologie, die Entwicklern hilft, schneller zu arbeiten, könnte Angreifern helfen, mit beispielloser Geschwindigkeit und in beispiellosem Umfang zu agieren.
Die regulatorische Lücke
Die Reaktion der Regulierungsbehörden ist wahrscheinlich am frustrierendsten. So hat beispielsweise die USA jahrelang über die Datenerfassung durch TikTok diskutiert, aber sie bereitet sich nicht auf ein Tool vor, das sich buchstäblich selbst in die kritischen Systeme Amerikas einschreiben könnte.
CFIUS überprüft ausländische Übernahmen, aber wer überprüft ausländische KI-Modelle, die dieselben strategischen Ziele erreichen könnten, ohne ein einziges Unternehmen zu kaufen?
Die KI-Verordnung der Biden-Regierung konzentriert sich auf die Entwicklung im Inland und auf Sicherheitstests, kratzt aber kaum an der Oberfläche der Risiken, die mit der Integration ausländischer KI verbunden sind.
Die westlichen Nationen brauchen Rahmenbedingungen, die KI zur Codegenerierung als kritische Infrastruktur behandeln, mit entsprechenden Sicherheitsanforderungen.
Was jetzt geschehen muss
Bevor Qwen3-Coder an Bedeutung gewinnt, sollten alle Organisationen, die mit sensiblen Daten oder kritischer Infrastruktur umgehen, strenge Richtlinien für die KI-gestützte Entwicklung implementieren. Wenn Sie keinen Ausländer Ihren Quellcode überprüfen lassen würden, warum sollten Sie dann dessen KI-Modell diesen generieren lassen?
Zweitens müssen wir Sicherheitswerkzeuge entwickeln, die speziell auf die Erkennung von KI-generierten Schwachstellen ausgelegt sind. Herkömmliche statische Analysen können raffinierte Hintertüren, die genau diese Werkzeuge umgehen sollen, nicht aufdecken.
Drittens muss die Tech-Branche erkennen, dass im KI-Zeitalter jedes Modell potenziell eine Dual-Use-Technologie ist. Die gleichen Fähigkeiten, die Qwen3-Coder für Entwickler attraktiv machen, machen es in einem feindlichen Kontext gefährlich.
Die Ironie ist offensichtlich: Westler, insbesondere Amerikaner, sind besorgt, dass China ihre Technologie stehlen könnte, während wir bereit sind, ihnen möglicherweise die Schlüssel zu Hintertüren zu übergeben.
Alibabas Qwen3-Coder mag ein leistungsstarker Programmierassistent sein, aber im großen Schachspiel der Cyberkriegsführung könnte er zum elegantesten Trojanischen Pferd werden, wenn westliche Länder ihn durch ihre Tore lassen.
ÜBER DIE AUTORIN
Jurgita Lapienytė ist Chefredakteurin bei Cybernews, wo sie ein Team von Journalisten und Sicherheitsexperten leitet, das sich der Aufdeckung von Cyberbedrohungen durch Forschung, Tests und datengestützte Berichterstattung widmet. In ihrer über 15-jährigen Karriere hat sie über wichtige globale Ereignisse berichtet, darunter die Finanzkrise 2008 und die Terroranschläge von Paris 2015, und durch investigativen Journalismus für mehr Transparenz gesorgt. Als leidenschaftliche Verfechterin des Bewusstseins für Cybersicherheit und von Frauen in der Tech-Branche hat Jurgita führende Persönlichkeiten aus dem Bereich Cybersicherheit interviewt und gibt den unterrepräsentierten Stimmen der Branche eine Plattform. Sie wurde als „Cybersecurity Journalist of the Year” ausgezeichnet und vom Top Cyber News Magazine in die Liste „40 Under 40 in Cybersecurity” aufgenommen. Als Vordenkerin prägt sie die Debatte rund um das Thema Cybersicherheit.
Das könnte Sie ebenfalls interessieren
Fachartikel

OpenAI präsentiert GPT-5.2-Codex: KI-Revolution für autonome Softwareentwicklung und IT-Sicherheit

Speicherfehler in Live-Systemen aufspüren: GWP-ASan macht es möglich

Geparkte Domains als Einfallstor für Cyberkriminalität: Über 90 Prozent leiten zu Schadsoftware weiter

Umfassender Schutz für geschäftskritische SAP-Systeme: Strategien und Best Practices

Perfide Masche: Wie Cyberkriminelle über WhatsApp-Pairing ganze Konten übernehmen
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







