
KI-Anwendungen wie ChatGPT oder Gemini generieren manipulative Designs für Webseiten. Das zeigt eine aktuelle Studie, die Forschende des Nationalen Forschungszentrums für angewandte Cybersicherheit ATHENE, der University of Glasgow und der Humboldt-Universität zu Berlin gemeinsam erstellt haben. Die manipulativen Muster, auch Dark Patterns genannt, baut die KI dabei sogar ohne explizite Aufforderung in den HTML-Code ein. Die Forschenden präsentieren ihre Ergebnisse auf der ACM CHI Conference on Human Factors in Computing Systems, die zurzeit in Yokohama stattfindet. Die Studie kann unter https://dl.acm.org/doi/pdf/10.1145/3706598.3713083 kostenfrei heruntergeladen werden.
„Jetzt zugreifen, nur noch drei Artikel verfügbar“, „Ihr 10-Euro-Gutschein ist noch 30 Minuten gültig“, vorausgewählte Produkte im Warenkorb oder gefälschte euphorische Kundenrezensionen sind einige Beispiele für Dark Patterns, manipulative Webseiten-Designs. Ihr Ziel: Besucherinnen und Kunden der Webseite sollen dazu animiert werden, schnell und viel zu kaufen.
Forschende des ATHENE-Zentrums für Cybersicherheit, der Universität Glasgow sowie der Humboldt-Universität zu Berlin haben untersucht, wie KI-Systeme mit manipulativen Design-Mustern bei der Erzeugung von Webseitencode umgehen. Die Ergebnisse zeigen: Selbst bei neutralen Anfragen, die nicht explizit nach Dark Patterns verlangten, wie „Erstelle eine Produktübersicht für einen Online-Shop“ bauten die untersuchten KI-Anwendungen ChatGPT, Gemini und Claude AI regelmäßig manipulative Elemente in den HTML-Code der Shopseite ein, wie gefälschte Kundenrezensionen, künstlich erzeugte Zeitdruck-Anzeigen oder irreführende Preisvergleiche – ohne darauf hinzuweisen, dass es sich um rechtlich und ethisch fragwürdige Elemente handelt und ohne vor möglichen juristischen Folgen zu warnen.
Manipulative Designs sollen Webseiten-Nutzende zum Kauf verleiten
„Diese Designmuster sind darauf ausgelegt, Nutzende zu Handlungen zu bewegen, die sie eigentlich nicht beabsichtigen“, erklärt Dr. Veronika Krauß, eine der Autorinnen der Studie. Sie forscht in der Arbeitsgruppe von ATHENE-Wissenschaftler Prof. Jan Gugenheimer an der Technischen Universität Darmstadt. „Besonders bedenklich ist, dass die KI diese Muster eigenständig vorschlägt und implementiert, ohne darauf hinzuweisen oder auf mögliche rechtliche oder ethische Probleme von Dark Patterns aufmerksam zu machen.“ Besorgniserregend sei außerdem, dass die KI-Systeme die psychologischen Wirkmechanismen hinter den manipulativen Designs den Nutzenden erklären können. Doch wie kommt die KI darauf, ohne explizite Aufforderung Dark Patterns zu erstellen? Der Grund liegt in den Trainingsdaten, denn im Internet sind genug Webseiten, die manipulative Designs nutzen. Daraus lernt die KI, ebenfalls ähnlichen HTML-Code zu erstellen, um bestimmte Zielvorgaben einer Webseite zu erreichen. Im Umkehrschluss bedeutet das auch, dass Ersteller von Webseiten manipulative Designs ohne Vorwissen ganz einfach mittels KI erzeugen können.
Handlungsbedarf bei KI-Anbietern und Politik
Die Ergebnisse der Studie sollen dazu beitragen, KI-Systeme zukünftig verantwortungsvoller zu gestalten und Nutzende besser davor zu schützen, ungewollt manipulative Praktiken auf ihren eigenen Webseiten anzuwenden. Dafür sollten KI-Anbieter ihre Systeme mit robusten Erkennungs- und Präventionsmechanismen für manipulative Designs ausstatten. Ihre Forschungsergebnisse stellen die Wissenschaftlerinnen und Wissenschaftler auf der der ACM CHI Conference on Human Factors in Computing Systems vor, einer der wichtigsten internationalen Konferenzen im Bereich Mensch-Computer-Interaktion.
Über ATHENE
ATHENE ist eine Forschungseinrichtung der Fraunhofer-Gesellschaft mit ihren beiden Fraunhofer-Instituten SIT und IGD und unter Beteiligung der Universitäten TU Darmstadt, Goethe-Universität Frankfurt und Hochschule Darmstadt. Das Zentrum wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) und vom Hessischen Ministerium für Wissenschaft und Kunst (HMWK) und hat seinen Sitz in der Wissenschaftsstadt Darmstadt.
Fachartikel

ETH-Forschende entdecken neue Sicherheitslücke in Intel-Prozessoren

Sicherheitskontrollen im Wandel: Warum kontinuierliche Optimierung zur proaktiven Abwehr und einem stabilen Sicherheitsmanagement gehört

Massives Datenleck: 200 Milliarden Dateien in Cloud-Speichern öffentlich zugänglich

Windows 10: Mai-Update führt zu BitLocker-Wiederherstellungsschleife

Advanced NPM Supply-Chain Attack kombiniert Unicode-Steganografie mit Google Kalender als C2-Kanal
Studien

Princeton-Forscher warnen vor fatalen KI-Angriffen im Web3-Umfeld

Führungskräfte ohne KI-Wissen? Gartner-Umfrage offenbart Sorgen der CEOs

Schweigen über KI-Erfolge: Was eine neue Ivanti-Studie offenbart

IBM treibt den Einsatz generativer KI in Unternehmen mit hybrider Technologie voran

Weltweite Umfrage: Mehrheit der Technologieverantwortlichen spricht sich für Robotik im Arbeitsumfeld aus
Whitepaper

TeleTrusT legt aktualisiertes Positionspapier „Cyber-Nation“ vor

Sechs entscheidende Tipps für den erfolgreichen Einsatz von cIAM-Lösungen

Wie die Datenverwaltung Wachstum und Compliance fördert

Group-IB präsentiert die zehn gefährlichsten Cybergruppen 2025

Cyberkriminelle nehmen 2025 verstärkt das Gesundheitswesen ins Visier
Hamsterrad-Rebell

Insider – die verdrängte Gefahr

Sicherer SAP-Entwicklungsprozess: Onapsis Control schützt vor Risiken

Das CTEM-Framework navigieren: Warum klassisches Schwachstellenmanagement nicht mehr ausreicht

Cybersicherheit im Mittelstand: Kostenfreie Hilfe für Unternehmen
