
Entwicklung praxisrelevanter Ansätze durch Einbindung der Fachöffentlichkeit + KI-Modelle, insbesondere große Sprachmodelle (sog. LLMs – Large Language Modells) können personenbezogene Informationen wortgetreu und sinngemäß aus ihren Trainingsdaten wiedergeben. Ergebnisse aus KI-Systemen können dementsprechend Rückschlüsse auf bestimmte Personen zulassen. Dieses Problem beschäftigt Aufsichtsbehörden weltweit spätestens seit der Veröffentlichung von ChatGPT und der damit einhergehenden massiven Verfügbarkeit von neuen KI-Angeboten für Verbraucher.
„KI-Modelle revolutionieren zahlreiche Branchen und stellen uns zugleich vor große Herausforderungen in Sachen Transparenz, Sicherheit und Datenschutz“, sagt Prof. Dr. Louisa Specht-Riemenschneider. Aus Sicht der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) ergeben sich auch im Jahr 2025 noch zahlreiche Fragen nach dem Schutz personenbezogener Daten beim Training von KI-Modellen.
Mit einem öffentlichen Konsultationsverfahren will die BfDI dazu beitragen, dass praktisches Wissen über KI-Modelle für die aufsichtsrechtliche Bewertung für alle zur Verfügung steht. Für die Entwicklung praktikabler und erfolgversprechender datenschutzrechtlicher Ansätze sollen Erfahrungen, Herausforderungen und Lösungen aus der Praxis sichtbar gemacht werden.
„Einblicke aus der Praxis versetzen uns in die Lage, bessere datenschutzrechtliche Empfehlungen auszusprechen. Ich möchte unrealistische und unklare Regelungen vermeiden – doch dafür bin ich auf die Mithilfe der Anbieter und Forschenden angewiesen“, so Louisa Specht-Riemenschneider. Die BfDI nutzt öffentliche Konsultationen auch, um Rechtssicherheit für alle Beteiligten durch Transparenz und Dialog zu gewährleisten.
Weitere Details zum Konsultationsverfahren „Schutz personenbezogener Daten in KI-Modellen“ finden Sie unter https://www.bfdi.bund.de/DE/BfDI/Konsultationsverfahren/KI-Modelle-pbD/KI-Modelle-pbD_node.html
Fachartikel

CrackArmor: AppArmor-Schwachstellen ermöglichen Root-Zugriff auf über 12 Millionen Linux-Systemen

KI-Agenten als interne Sicherheitsrisiken: Was Experimente zeigen

MCP-Sicherheitsstudie: 555 Server mit riskanten Tool-Kombinationen identifiziert

SOX-Compliance in SAP: Anforderungen, IT-Kontrollen und der Weg zur Automatisierung

Irans Cyberoperationen vor „Epic Fury“: Gezielter Infrastrukturaufbau und Hacktivisten-Welle nach den Angriffen
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Quantifizierung und Sicherheit mit modernster Quantentechnologie

KI-Betrug: Interpol warnt vor industrialisierter Finanzkriminalität – 4,5-fach profitabler

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien
Hamsterrad-Rebell

Sichere Enterprise Browser und Application Delivery für moderne IT-Organisationen

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen








