Share
Beitragsbild zu Sind Ihre KI-Tools sicher? Neue Analyse deckt Lücken bei den Marktführern auf

Sind Ihre KI-Tools sicher? Neue Analyse deckt Lücken bei den Marktführern auf

22. Juli 2025

Studie: Sicherheitslücken bei KI-Anbietern + Laut einer aktuellen Untersuchung des Business Digital Index (BDI) setzen Unternehmen weltweit zunehmend große Sprachmodelle (LLMs) ein – zur Prozessoptimierung, Inhaltserstellung und als Unterstützung für Mitarbeitende. Rund 58 Prozent der Nutzer haben dabei bereits zwei oder mehr verschiedene Anbieter ausprobiert. Doch die neue Analyse des BDI-Teams wirft nun kritische Fragen zur Sicherheit dieser Technologien auf.

Die Forscher untersuchten die Cybersicherheitsstandards von zehn populären LLM-Anbietern – darunter OpenAI, Claude, Perplexity, DeepSeek und weitere – ausschließlich auf Basis öffentlich zugänglicher Informationen. Dabei kamen spezielle Scans, IoT-Suchmaschinen sowie Reputationsdatenbanken für IPs und Domains zum Einsatz.

Das Ergebnis: Nur die Hälfte der analysierten Anbieter erreichte die Bestnote A für Cybersicherheit. Zwei prominente Unternehmen, OpenAI und 01.AI, wurden hingegen mit der Note D bewertet. Besonders schlecht schnitt Inflection AI ab – mit der niedrigsten Bewertung F. Der Durchschnitt aller untersuchten Anbieter lag bei 88 von 100 möglichen Punkten.

Die Studie mahnt zur Vorsicht: Viele der derzeit eingesetzten KI-Tools könnten weniger sicher sein, als es Unternehmen annehmen – und damit potenziell sensible Daten sowie die Reputation gefährden.

Fünf von zehn Anbietern hatten mit Datenverstößen zu kämpfen

Die Analyse von Harmonic zeigt, dass 45,4 % der Anfragen zu sensiblen Daten über persönliche Konten versendet werden und somit die offiziellen Unternehmenskanäle komplett umgehen. Dies erschwert es Unternehmen, die Sicherheit plattformübergreifend zu kontrollieren, und gefährdet Unternehmensdaten, oft ohne dass die Unternehmen dies überhaupt bemerken. Dies wirft ernsthafte Fragen hinsichtlich der Auswahl und Integration von KI-Tools auf.

Dieser wachsende Trend bedeutet, dass Unternehmen zunehmend gefährdet sind. Ohne strenge Cybersicherheitsmaßnahmen kann jedes in Arbeitsabläufe integrierte LLM-Tool zu einem neuen Einfallstor für Angreifer werden.

Die Analyse des Business Digital Index zeigt, dass alle LLM-Anbieter Schwachstellen in ihrer SSL/TLS-Konfiguration aufweisen. Wenn ein Unternehmen Probleme mit seiner SSL/TLS-Konfiguration hat, können sensible Daten abgefangen werden, wodurch seine Systeme anfällig für Man-in-the-Middle-Angriffe werden und das Vertrauen der Nutzer sowie die Datensicherheit gefährdet werden.

Laut der Indexanalyse verzeichneten fünf von zehn Anbietern Datenverletzungen. Die Indexanalyse zeigt, dass OpenAI mit 1.140 Vorfällen und einer Datenpanne nur neun Tage vor der Analyse die meisten Verletzungen zu verzeichnen hatte. Perplexity AI erlitt 13 Tage zuvor ebenfalls eine Verletzung, bei der 190 Unternehmenszugangsdaten kompromittiert wurden.

Die Weitergabe von Zugangsdaten bleibt ein dringendes Problem

Die Wiederverwendung von Passwörtern durch Mitarbeiter verstärkte die Risiken zusätzlich, insbesondere bei Perplexity AI, wo laut Index 35 % der Mitarbeiter gehackte Passwörter wiederverwendeten, und bei EleutherAI mit 33 %.

Der Bericht zeigt, dass Schwachstellen beim System-Hosting eine weitere weit verbreitete Schwachstelle waren. Mit Ausnahme von AI21 Labs und Anthropic hatten alle anderen LLM-Anbieter mit erheblichen Sicherheitsproblemen beim Hosting zu kämpfen. Perplexity AI und EleutherAI hatten fast 40 % ihrer Systeme in der Cloud gehostet, wodurch sie potenziellen Cyberangriffen stärker ausgesetzt waren.

Regionaler Vergleich: USA vs. China

Die Analyse ergab auch deutliche regionale Unterschiede. Amerikanische KI-Anbieter erzielten einen durchschnittlichen Cybersicherheitswert von 87,5 und lagen damit vor chinesischen Unternehmen, die im Durchschnitt nur 79,5 erreichten. Keiner der chinesischen Anbieter wurde mit mehr als C bewertet, was eine erhebliche Sicherheitslücke aufzeigt.

Das auffälligste Beispiel ist der Fall der DeepSeek AI-Sicherheitsverletzung, der zeigte, wie Schwachstellen bei KI-Anbietern die Tür für umfassendere Unternehmensangriffe öffnen können. Mit zunehmender Verbreitung verlagern Bedrohungsakteure ihren Fokus auf die Ausnutzung von LLM-bezogenen Schwachstellen, von der Offenlegung von Anmeldedaten bis hin zu mangelhaften Systemhosting-Konfigurationen.

Die drei sichersten LLM-Anbieter – AI21 Labs, Perplexity AI und Anthropic – hatten ihren Sitz in den USA und Israel. Allerdings erzielte Inflection AI, ein US-amerikanisches Unternehmen, insgesamt die niedrigste Punktzahl.

Forschungsmethodik

Die Forscher von BDI analysierten 10 beliebte LLM-Anbieter. Der Bericht bewertet das Cybersicherheitsrisiko anhand von sieben Schlüsselkriterien: Software-Patches, Sicherheit von Webanwendungen, E-Mail-Schutz, Systemreputation, Hosting-Infrastruktur, SSL/TLS-Konfiguration und Datenverletzungshistorie. Die Methodik des Berichts finden Sie hier. Sie enthält detaillierte Informationen darüber, wie die Forscher diese Analyse durchgeführt haben.