
Generative Künstliche Intelligenz (GenAI) hat sich im Jahr 2025 endgültig von einer vielversprechenden Innovation zu einer unternehmenskritischen Technologie entwickelt. Unternehmen setzen GenAI zunehmend ein, um kreative Prozesse zu beschleunigen, Innovationen voranzutreiben und sensible Daten effektiver zu schützen. Doch mit dem Fortschritt wachsen auch die Herausforderungen.
Laut dem aktuellen „The State of Generative AI Report“ von Palo Alto Networks, der auf Daten aus über 7.000 Kundenumgebungen weltweit basiert, hat sich die Nutzung von GenAI innerhalb eines Jahres dramatisch erhöht: Der GenAI-Datenverkehr ist 2024 um mehr als 890 Prozent gestiegen. Parallel dazu nahmen sicherheitsrelevante Vorfälle um das 2,5-Fache zu – ein deutliches Warnsignal für Unternehmen und IT-Verantwortliche.
Die wichtigsten Ergebnisse auf einen Blick:
- Die Zahl der GenAI-bezogenen Data-Loss-Prevention-Vorfälle (DLP) hat sich im Jahr 2025 im Vergleich zum Vorjahr um das 2,5-Fache erhöht – sie machen nun 14 Prozent aller DLP-Vorfälle aus.
- Unternehmen nutzen im Schnitt 66 verschiedene GenAI-Anwendungen – rund zehn Prozent davon gelten als hochriskant.
- Über 70 Prozent der getesteten GenAI-Apps zeigten bei Sicherheitstests problematische Inhalte – von diskriminierenden Aussagen bis hin zu Bauanleitungen für Waffen.
- Die Technologie- und Fertigungs-Sektoren treiben den Einsatz von Coding-Plattformen besonders stark voran – allein 39 Prozent aller GenAI-Coding-Transaktionen stammen aus diesen Branchen.
- GenAI-Spitzenreiter ist DeepSeek-R1 mit einem Wachstum von 1.800 Prozent nach seinem Launch im Januar 2025.
- Shadow AI – also nicht genehmigte GenAI-Nutzung durch Mitarbeitende – ist eine der größten Sicherheitsbedrohungen. Unternehmen registrieren im Schnitt über sechs besonders riskante GenAI-Anwendungen in ihrer Infrastruktur.
Auch in Deutschland, Österreich und der Schweiz zeigt sich ein starker Anstieg beim Einsatz generativer KI, mit regionalen Unterschieden: In Deutschland führt Microsoft Power Apps mit 24 Prozent des GenAI-Traffics, gefolgt von Grammarly (21 Prozent) und ChatGPT (20 Prozent). In der Schweiz dominiert Power Apps mit 33 Prozent, MS Office365 Copilot folgt mit 25 Prozent, ChatGPT mit 17 Prozent. In Österreich liegt Grammarly mit 33 Prozent vorne, gefolgt von ChatGPT (25 Prozent) und Power Apps (22 Prozent).
Gleichzeitig werden in deutschen Unternehmensnetzwerken vermehrt Anwendungen genutzt, die ein besonders hohes Risiko für Datenlecks und Regelverstöße bergen. Der KI-basierte Interviewer Micro 1 AI macht fast 49 Prozent des risikobehafteten GenAI-Traffics in Deutschland aus. Auch UseChat (etwa 32 Prozent) und Zendesk AI (rund 29 Prozent) gehören zu den sicherheitskritischen Tools.
„Die Studienergebnisse offenbaren ein fundamentales Dilemma: Die Einführung von GenAI erfolgt oft schneller als deren sichere Integration. Ohne klare Richtlinien, technische Schutzmechanismen und kontinuierliche Überwachung riskieren Unternehmen nicht nur den Verlust sensibler Daten, sondern auch regulatorische Konsequenzen und Imageschäden. Für eine sichere Nutzung empfiehlt Palo Alto Networks unter anderem Zero-Trust-Architekturen, granulare Zugriffskontrollen und Echtzeit-Content-Scanning, um Sicherheitsrisiken frühzeitig zu erkennen und abzuwehren. Entscheidend ist es, Innovation und Schutz nicht als Widerspruch, sondern als gemeinsames Ziel zu verstehen“, so Martin Zeitler, Senior Director Technical Solutions bei Palo Alto Networks.
Den vollständigen Report können Sie hier herunterladen: https://www.paloaltonetworks.com/resources/research/state-of-genai-2025
Monatlicher Trend bei GenAI-Transaktionen / Copyright: Palo Alto Networks
Prozentualer Anteil von GenAI-bezogenen DLP-Vorfällen / Copyright: Palo Alto Networks
AI Access Security Dashboard mit Copilot-Empfehlungen / Copyright: Palo Alto Networks
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

ShinyHunters-Angriffe: Mandiant zeigt wirksame Schutzmaßnahmen gegen SaaS-Datendiebstahl

Phishing-Angriff: Cyberkriminelle missbrauchen Microsoft-Infrastruktur für Betrugsmaschen

Wie Angreifer proprietäre KI-Modelle über normale API-Zugriffe stehlen können

KI-Agenten in cyber-physischen Systemen: Wie Deepfakes und MCP neue Sicherheitslücken öffnen

Sicherheitslücke in Cursor-IDE: Shell-Befehle werden zur Angriffsfläche
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://cdn-ileiehn.nitrocdn.com/EZdGeXuGcNedesCQNmzlOazGKKpdLlev/assets/images/optimized/rev-68905f9/www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

DigiCert veröffentlicht RADAR-Bericht für Q4 2025

Koordinierte Cyberangriffe auf polnische Energieinfrastruktur im Dezember 2025

Künstliche Intelligenz bedroht demokratische Grundpfeiler

Insider-Risiken in Europa: 84 Prozent der Hochrisiko-Organisationen unzureichend vorbereitet

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI
Hamsterrad-Rebell

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern










