
Zitat von Carla Roncato, Vice President of Identity, WatchGuard Technologies
„Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) sind am Datenschutztag 2024 ein offensichtliches Thema – sowohl aufgrund der potenziellen Vorteile, die entsprechende Werkzeuge mit sich bringen, als auch wegen der damit einhergehenden Gefahren, die durchaus für Beunruhigung sorgen. In Anbetracht der weiten Verbreitung von KI-Tools allein im letzten Jahr ist es von entscheidender Bedeutung, dass wir als Vertreter der IT-Security-Gemeinschaft diese Gelegenheit nutzen, um für die Risiken, die von KI im Hinblick auf den Schutz unserer Daten ausgehen, zu sensibilisieren und das Verständnis dafür zu vertiefen. KI hält immer mehr Einzug in unserem Alltag und tangiert damit nicht zuletzt unserer aller Recht auf Datenschutz.
Unternehmen wie Einzelanwender sollten eines niemals vergessen: Wenn ein von ihnen genutzter Dienst ‚kostenlos‘ ist, dann geht es am Ende wahrscheinlich um Daten, die im Gegenzug als ‚Preis‘ aufgerufen werden. Dies gilt auch für KI-Tools, also sollte jeder entsprechend handeln. Viele frühe KI-Dienste und -Anwendungen – darunter auch ChatGPT – verwenden ein Nutzungsmodell, das dem von Social-Media-Plattformen wie Facebook und TikTok ähnelt.
Anwender zahlen zwar kein Geld für die Nutzung dieser Plattformen, aber sie entschädigen die Anbieter durch Zustimmung hinsichtlich der Weitergabe von privaten Daten.
Diese nutzen Unternehmen beispielsweise dazu, um mit gezielter Werbung zu Geld machen. In ähnlicher Weise kann ein kostenloser KI-Dienst Daten von Geräten sammeln, die individuellen Eingabeaufforderungen speichern und diese Daten dann verwenden, um sein eigenes Modell zu trainieren. Dies mag zwar nicht bösartig erscheinen, aber genau deshalb ist es so wichtig, zu wissen, was passiert und inwieweit die Verarbeitung der gesammelten Daten zum Trainieren generativer KI-Algorithmen Datenschutzfragen aufwirft. Nur mal angenommen, eines dieser Unternehmen wird gehackt und Daten geraten in die falschen Hände: Dann lassen sich genau solche individuellen Informationen geschickt als Waffe ausspielen.
Natürlich hat die KI auch Vorteile. In der Tat sind viele KI-Tools recht leistungsfähig und können mit den richtigen Vorsichtsmaßnahmen sicher eingesetzt werden. Die Risiken, die sich für Unternehmen im Zuge der geschäftlichen Nutzung ergeben, hängen vor allem von den jeweiligen Aufgaben, Zielstellungen und verwendeten Daten ab. Im Bereich der Sicherheit beginnt alles mit einer Richtlinie, was bedeutet, dass Organisationen letztendlich auch klare KI-Vorgaben definieren müssen, die auf den speziellen Anwendungsfall ihres Unternehmens zugeschnitten ist. Sobald diese festgelegt sind, besteht der nächste Schritt darin, die Mitarbeiterschaft darüber zu informieren und für die Risiken ein Bewusstsein zu schaffen. Zudem gilt es, die Regeln entsprechend anzupassen, sobald veränderte Rahmenbedingungen vorliegen, beispielsweise in Form neuer Regularien. Eine regelmäßige Kommunikation mit der Belegschaft ist in dem Zusammenhang entscheidend.“
Fachartikel

Januar-Patch sorgt für Outlook-Blockaden bei Cloud-Speichern

PNB MetLife: Betrüger missbrauchen Versicherungsmarke für UPI-Zahlungsbetrug

Wenn Angreifer selbst zum Ziel werden: Wie Forscher eine Infostealer-Infrastruktur kompromittierten

Mehr Gesetze, mehr Druck: Was bei NIS2, CRA, DORA & Co. am Ende zählt

WinDbg-UI blockiert beim Kopieren: Ursachenforschung führt zu Zwischenablage-Deadlock in virtuellen Umgebungen
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI

Allianz Risk Barometer 2026: Cyberrisiken führen das Ranking an, KI rückt auf Platz zwei vor

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung
Hamsterrad-Rebell

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus






