
UNIDIR startet ein neues Forschungsprojekt zur Rolle künstlicher Intelligenz (KI) in internationaler Friedenssicherung und Sicherheit. Ziel ist es, Wege der Verbreitung dieser Technologie zu identifizieren und Strategien zu ihrer Kontrolle zu entwickeln.
Das Projekt, Teil des UNIDIR-Programms „Sicherheit und Technologie“, gliedert sich in zwei Phasen. Zunächst sollen die zentralen Kanäle beleuchtet werden, über die potenziell böswillige Akteure Zugang zu KI-Fähigkeiten erlangen könnten. Im Anschluss werden politische Maßnahmen untersucht, die helfen könnten, diese Risiken zu begrenzen. Dabei wird unter anderem die Effektivität bestehender Nichtverbreitungs- und Rüstungskontrollmechanismen geprüft, um konkrete Empfehlungen für eine Verbesserung der internationalen Kontrollinstrumente zu erarbeiten.
Die Verbreitung künstlicher Intelligenz (KI) hat Auswirkungen auf den internationalen Frieden und die internationale Sicherheit. Die Risiken, insbesondere der Zugang zu dieser Technologie durch böswillige nichtstaatliche Akteure, wurden in zahlreichen Foren – darunter multilaterale Treffen und UN-Dokumente – angesprochen. So wird beispielsweise in den laufenden Diskussionen der Gruppe von Regierungssachverständigen für tödliche autonome Waffensysteme in den 2019 verabschiedeten Leitprinzipien ausdrücklich auf das Risiko der Verbreitung dieser Waffen und ihres Erwerbs durch terroristische Gruppen hingewiesen. Darüber hinaus wird in der Resolution, die die Generalversammlung im Dezember 2024 verabschiedet hat, auf die Bedenken und möglichen Auswirkungen der Verbreitung von KI an nichtstaatliche Akteure hingewiesen.
Die Risiken der Verbreitung von KI sind jedoch nach wie vor relativ wenig erforscht und werden etwas vereinfacht dargestellt, indem sie auf die Abzweigung autonomer Waffen an nichtstaatliche Gruppen reduziert werden. Dieses Forschungsprojekt zielt darauf ab, eine wichtige Lücke in der aktuellen politischen Debatte zu schließen, indem es eine eingehende Analyse darüber liefert, was die Verbreitung von KI tatsächlich bedeutet, wie KI-Technologien verbreitet werden können und wie politische Maßnahmen zur Bekämpfung der Verbreitung konzipiert werden können.
Kartierung der Risiken der Verbreitung von KI
In der ersten Phase des Projekts (2025-2026) werden die wichtigsten Wege für die Verbreitung und Umleitung von KI aufgezeigt, einschließlich der Frage, wie diese Technologien von nichtstaatlichen Akteuren umfunktioniert, genutzt, entwickelt und missbraucht werden können.
KI stützt sich auf ein riesiges und dezentralisiertes Ökosystem aus Software, Hardware-Infrastruktur und Talentverteilung mit zahlreichen Schwachstellen, die für die Verbreitung, Umleitung, den Missbrauch oder die Militarisierung ausgenutzt werden können. Eine Aufschlüsselung der KI-Wertschöpfungskette kann dabei helfen, mögliche Wege für die Verbreitung aufzuzeigen.
Eine umfassende Analyse liefert jedoch nur unvollständige Schlussfolgerungen im Kontext einer allgemein einsetzbaren Technologie, bei der unterschiedliche Anwendungsfälle spezifische oder einzigartige Verbreitungsrisiken mit sich bringen. Da KI in einer Vielzahl von Bereichen eingebettet und eingesetzt werden kann, darunter physische (Roboter-)Systeme und digitale Technologien, werden sich in den verschiedenen Anwendungsbereichen unterschiedliche Herausforderungen und fördernde Faktoren für die Verbreitung zeigen. Beispielsweise sind die Elemente, die die Verbreitung autonomer Systeme (z. B. Drohnen) ermöglichen, nicht unbedingt dieselben wie für die Verbreitung großer Sprachmodelle (LLMs). Es spielen unterschiedliche Überlegungen hinsichtlich Rechenleistung, Daten, Fachkräften, Skalierbarkeit und Kosten eine Rolle, die mitunter unterschiedliche Auswirkungen auf die Nichtverbreitungsregulierung haben können.
Die Forschung wird diese Herausforderungen anhand von zwei Fallstudien hervorheben. Die erste Fallstudie konzentriert sich auf die Verbreitung autonomer Waffen, insbesondere die Nachrüstung oder Umnutzung kommerzieller unbemannter Systeme für Kampf- oder andere militärische Zwecke. Die zweite Fallstudie konzentriert sich auf die böswillige Nutzung von LLMs und untersucht Open-Source-Modelle und deren Verbreitung für böswillige Zwecke.
Auf dem Weg zu wirksamen politischen Maßnahmen
Die nächste Phase des Projekts (2026) wird auf den technischen Untersuchungen und Fallstudien aus Phase I aufbauen und sich eingehender mit bestehenden und möglichen künftigen politischen Rahmenbedingungen zur Bekämpfung der Verbreitung befassen.
Die Forschung wird die Wirksamkeit der aktuellen Nichtverbreitungs- und Rüstungskontrollrahmen auf nationaler und internationaler Ebene bewerten, einschließlich der zwischen Staaten vereinbarten Exportkontrollpolitiken oder -maßnahmen (z. B. Vereinbarungen zum Informationsaustausch). Dabei wird die Anpassungsfähigkeit bestehender Mechanismen an ein sich rasch wandelndes technologisches Umfeld und eine sich verändernde Bedrohungslage untersucht. Besondere Aufmerksamkeit wird möglichen Lücken in den Compliance- und Umsetzungsmaßnahmen gewidmet, einschließlich Lücken in der Strafverfolgung auf nationaler Ebene sowie rechtlichen Herausforderungen.
Auf dieser Grundlage wird UNIDIR konkrete und umsetzbare Empfehlungen zur Unterstützung der Bemühungen zur Bekämpfung der Verbreitung von KI formulieren. Diese werden auf die nationale Politikgestaltung und multilaterale Institutionen sowie auf Akteure aus der Industrie zugeschnitten sein.
Sicherung des Friedens im Zeitalter der KI
Mit dieser zweiphasigen Initiative möchte UNIDIR nicht nur das Verständnis dafür verbessern, wie KI proliferieren kann, sondern auch die Fähigkeit der internationalen Gemeinschaft stärken, wirksam darauf zu reagieren. Durch die Kombination von rigoroser technischer Forschung und umsetzbaren politischen Leitlinien verkörpert das Projekt das Mandat von UNIDIR, unabhängige, zukunftsorientierte Analysen an der Schnittstelle von Sicherheit und Technologie zu liefern.
Auch interessant für Sie
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Wenn KI-Detektoren versagen: Code-Verschleierung entlarvt Schwächen großer Sprachmodelle

Solaranlagen im Visier von Hackern: Wie veraltete Protokolle die Energiewende gefährden

Wie Cyberkriminelle Microsoft-Nutzer mit gefälschten Gerätecodes täuschen

OpenAI präsentiert GPT-5.2-Codex: KI-Revolution für autonome Softwareentwicklung und IT-Sicherheit

Speicherfehler in Live-Systemen aufspüren: GWP-ASan macht es möglich
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







