
IT-Sicherheitsexperten mahnen vor Massenüberwachung durch Echtzeit-Scans
Die EU-Kommission stellte vor Kurzem ihre Pläne für ein neues Gesetz zur Chatkontrolle vor. Ziel ist es, den Kampf gegen sexuellen Missbrauch Minderjähriger voranzutreiben. „Das ist zweifelsfrei dringend notwendig. Doch erreicht werden soll dies, indem die Privatsphäre unter anderem auf unser aller Mobiltelefone ausgehebelt wird. Ob jedoch die anlasslose Massenüberwachung auch unbescholtener Bürgerinnen und Bürger die Strafverfolgung in dieser Hinsicht wirklich weiterbringt, bezweifle ich stark“, kritisiert IT-Sicherheitsexpertin Patrycja Schrenk, Geschäftsführerin der PSW GROUP www.psw-group.de scharf.
Es sind erschreckende Zahlen, von denen die EU-Kommission berichtet: Allein im Jahr 2021 gab es 85 Millionen Meldungen von Bildern und Videos, die sexuellen Kindesmissbrauch darstellen – die Dunkelziffer liegt weitaus höher. Um Kindesmissbrauch mit neuen Methoden verfolgen zu können, präsentierte die EU-Kommission nun einen Gesetzesvorschlag zum Schutz von Kindern: Mit der Chatkontrolle – also dem Durchleuchten von Online-Kommunikation in Messengern, sozialen Netzwerken oder auch per E-Mail – möchte die EU Algorithmen einführen, die erkennen können, ob und wann Material zu Kindesmissbrauch online geteilt wird.
Technische Lösungen und ihre datenschutzrechtlichen Nachteile
Um dies zu erreichen, könnte Künstliche Intelligenz (KI) zum Einsatz kommen: Der Algorithmus erkennt bereits bekanntes Material anhand eines Hashwerts, also eines einzigartigen Werts, der den Datei-Inhalt beschreibt. Ist den Algorithmen – und damit auch den Behörden – ein Bild bekannt, auf dem Kindesmissbrauch dargestellt wird, können alle Bilder damit abgeglichen werden. Um bisher nicht bekanntes Material erkennen zu können, sollen die Algorithmen mittels Machine Learning, also maschinellem Lernen, dazulernen können. Allerdings: „Das anlasslose Scannen von Kommunikationen im Internet ist ein großer Eingriff in die Privatsphäre“, mahnt die IT-Sicherheitsexpertin.
Welche technischen Lösungen eingesetzt werden sollen, ließ die EU-Kommission zudem offen. Aktuell sind zwei Verfahren im Gespräch. So sollen entweder Anbieter Nachrichten vor dem Verschlüsseln durchleuchten, wobei möglicherweise Nachrichten dann unverschlüsselt ausgeleitet werden. „Dieses „client-side scanning“, kurz CSS, ist gefährlich für die IT-Sicherheit: Staatliche Stellen erhalten Zugang zu privaten Inhalten, sodass es sich um Abhöraktionen handelt. Viele Nutzergeräte weisen zudem Schwachstellen auf, die durch die Überwachungs- und Kontrollmöglichkeiten des CSS von weiteren Akteuren ausgenutzt werden können. CSS schwächt aber auch die Meinungsfreiheit und Demokratie: Einmal eingeführt, wird es schwer, sich gegen etwaige Ausweitungen zur Wehr zu setzen oder Kontrolle über den Missbrauch des Systems zu erhalten“, warnt Patrycja Schrenk.
Ein zweites Verfahren wäre die Aushebelung der Verschlüsselung durch die Messengerdienste selbst. Hierzu möchte die EU Anbieter zu einer Hintertür im Messenger verpflichten, sodass über diese auf die Inhalte des Smartphones zugegriffen werden kann. Davon betroffen sind Hostprovider, einschließlich Foto- und Videoplattformen, Zugangsprovider, App Store-Betreiber sowie interpersonelle Kommunikationsdienste wie Messenger und E-Mail. Diesen Diensten soll vorgeschrieben werden, Chats, Nachrichten sowie E-Mails mittels Künstlicher Intelligenz (KI) nach verdächtigen Inhalten zu durchleuchten. Wurden verdächtige Inhalte erkannt, sollen diese an Strafverfolgungsbehörden weitergeleitet werden, die dann ihrerseits prüfen, ob sich der Anfangsverdacht bestätigt hat.
„Problematisch bei den aktuell vorhandenen Technologien ist mitunter die hohe Fehlerquote: Auch irrtümliche Treffer müssen an die Strafverfolgungsbehörden gesendet werden, sodass harmlose Nachrichten, Chats, Videos oder Fotos von Unschuldigen gesichtet und unnötig verbreitet werden. Heißt für die Praxis: Menschen, die im geplanten EU-Zentrum arbeiten, müssen falsch-positives Material händisch aussortieren. Damit bekommen Ermittelnde auch legale Aufnahmen Minderjähriger zu sehen“, so Patrycja Schrenk. Falsch-positive Ergebnisse entstehen, weil die scannende KI den Kontext nicht versteht: Verbringt eine Familie den Sommer am Strand und schickt einander die entstandenen Fotos zu, landen diese unter Umständen in der EU-Zentrale und bei Europol. Privatsphäre sieht anders aus. Was folgt, könnte eine nie da gewesene Massenüberwachung aller Bürgerinnen und Bürger sein – anlasslos und vollautomatisiert. Damit würde das Recht auf Verschlüsselung ausgehebelt und das digitale Briefgeheimnis abgeschafft werden.
„Wir dürfen uns auch nichts vormachen: Maschinell nach Grooming-Versuchen oder derzeit unbekannten Missbrauchsdarstellungen suchen zu wollen, ist rein experimentell – auch, beziehungsweise gerade, unter Verwendung von KI. Denn die Algorithmen, die dabei eingesetzt werden, sind weder der Öffentlichkeit noch der Wissenschaft zugänglich. Und eine Offenlegungspflicht ist in dem Gesetzentwurf nicht zu finden. Kommunikationsdienste, die für Grooming-Versuche missbraucht werden könnten – und darunter fallen alle Kommunikationsdienste – müssen Altersverifikationen mit Nutzerinnen und Nutzern durchführen. Das geht nur, wenn diese sich ausweisen. Damit wird die anonyme Kommunikation de facto unmöglich gemacht, was gerade Menschenrechtler, Whistleblower, politisch Verfolgte, Journalisten oder marginalisierte Gruppen bedrohen könnte“, kritisiert Schrenk scharf.
„Ich habe aber nichts zu verbergen“: Falsch!
Damit ist aus Datenschutzsicht der Entwurf zum Chatkontrolle-Gesetz katastrophal, denn Jede und Jeder steht unter Generalverdacht! „Wer glaubt, er oder sie hätte nichts zu verbergen, sollte darüber nachdenken, dass im Falle einer Chatkontrolle alle E-Mails und Chats automatisch auf verdächtige Inhalte durchsucht werden. Es existiert dann keine vertrauliche und geheime Kommunikation mehr. Gerichte müssen derlei Durchsuchungen nicht mehr anordnen, sie geschehen automatisiert“, mahnt Patrycja Schrenk und nennt die weitreichenden Konsequenzen: „Harmlose Familienfotos vom Strandurlaub werden höchstwahrscheinlich falsch-positiv anschlagen und von internationalen Ermittelnden angesehen. Ein Urlaubsfoto, das vom Sprössling am Strand an die Oma versendet wird, macht diese schon verdächtig.“
Kommt die Chatkontrolle könnten außerdem weitere staatliche Akteure wie Geheimdienste oder auch Cyberkriminelle auf privaten Chats und E-Mails zugreifen. „Etabliert sich die Technologie zur Chatkontrolle, ist es einfach, sie auch für andere Zwecke einzusetzen. Die erzwungene Hintertür ermöglicht nämlich das Überwachen bislang sicher verschlüsselter Kommunikationen auch für andere Zwecke. Den Algorithmen ist es egal, ob sie nach Kindesmissbrauch, Drogenkonsum oder nach unliebsamen Meinungsäußerungen suchen. In einigen Staaten der EU ist es beispielsweise nicht normal, zur LGTPQ+ Bewegung zu gehören. Tatsächlich verwenden autoritäre Staaten derlei Filter zur Verfolgung und Verhaftung von Andersdenkenden“, gibt Schrenk zu bedenken.
Schlimmstenfalls schadet die Chatkontrolle sogar bei der Verfolgung von Kindesmissbrauch, denn Ermittelnde sind mit Meldungen überlastet, die oftmals strafrechtlich irrelevant sind. Überdies werden Missbrauchstäter nicht getroffen: Schon jetzt nutzen sie in aller Regel keine kommerziellen Online-Dienste, sondern richten eigene Foren ein. Dort laden sie Bild- und Videomaterial häufig als verschlüsseltes Archiv hoch und teilen nur Links und Passwörter. Die Algorithmen der Chatkontrolle funktionieren hier nicht. „Sorgen bereitet mir zudem, dass die Strafverfolgung privatisiert würde. Denn dann entscheiden Algorithmen großer Tech-Giganten, welche Inhalte als verdächtig gelten“, so Schrenk.
Weitere Informationen unter: https://www.psw-consulting.de/blog/2022/07/25/pandoras-buechse-oder-die-chatkontrolle-massenueberwachung-durch-echtzeit-scans/
Fachartikel

Anwendungsmodernisierung mit KI-Agenten: Erwartungen versus Realität in 2026

Von NGINX Ingress zur Gateway API: Airlock Microgateway als Sicherheitsupgrade für Kubernetes

Nosey Parker: CLI-Werkzeug spürt sensible Informationen in Textdaten und Code-Repositories auf

Cyberkriminelle nutzen Google Tasks für großangelegte Phishing-Angriffe

KI-gestütztes Penetrationstest-Framework NeuroSploit v2 vorgestellt
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung

NIST aktualisiert Publikationsreihe zur Verbindung von Cybersecurity und Enterprise Risk Management

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme






