Share
Beitragsbild zu Meta AI-Chatbot überlistet, um Anweisungen zur Herstellung von Brandvorrichtungen zu geben

Meta AI-Chatbot überlistet, um Anweisungen zur Herstellung von Brandvorrichtungen zu geben

1. Oktober 2025

Forscher von Cybernews haben herausgefunden, dass der persönliche Assistent von Meta, der in Messenger, WhatsApp, Instagram und andere Apps integriert ist, leicht dazu manipuliert werden kann, schädliche Informationen preiszugeben. Der auf Llama 4 basierende Chatbot ließ sich leicht dazu verleiten, Anweisungen zur Herstellung eines Molotowcocktails zu geben.

Der Assistent ließ sich leicht durch die sogenannte „Narrative Jailbreaking”-Methode austricksen. Bei dieser Technik wird die schädliche Anfrage maskiert, indem der Bot gebeten wird, eine „Geschichte” zu erzählen, um Sicherheitsfilter zu umgehen. Um den Jailbreak durchzuführen, bat das Team den Chatbot einfach, eine Geschichte über den Winterkrieg zwischen Finnland und der Sowjetunion zu erzählen und fragte nach Details darüber, wie die Brandvorrichtungen damals hergestellt wurden.

„Der Bot gibt zwar niemals direkt Anweisungen zur Herstellung improvisierter Waffen, aber er erzählt ohne zu zögern eine realistische und detaillierte Geschichte darüber, wie improvisierte Waffen früher hergestellt wurden. Dies wirft Bedenken hinsichtlich der Verfügbarkeit gefährlicher KI-Informationen für Minderjährige auf”, erklärte das Team.

Es ist zwar unwahrscheinlich, dass Menschen zu Meta strömen, um Ratschläge zur Herstellung von Molotowcocktails zu erhalten, aber das Problem verdeutlicht die Möglichkeit, den Chatbot für Zwecke zu missbrauchen, die über den Rahmen dessen hinausgehen, wozu ein KI-Assistent in der Lage sein sollte.

Das Team hat Meta sofort nach der Entdeckung des Problems darüber informiert. Nach der Veröffentlichung teilte das Unternehmen Cybernews mit, dass es das Problem behoben habe.

Außerdem entdeckten Forscher von Cybernews kürzlich, dass der Kundendienstassistent Lena von Lenovo eine XSS-Sicherheitslücke aufwies, die es ermöglichte, Remote-Skripte auf Unternehmenscomputern auszuführen, wenn man freundlich darum bat.

Unterdessen ermöglichte ein anderer Chatbot, der vom Reisebüro Expedia verwendet wurde, den Nutzern, nach einem Rezept für die Herstellung eines Molotowcocktails zu fragen. Das Unternehmen behob schließlich das Problem, und der Chatbot gab keine Ratschläge mehr zur Herstellung von Brandvorrichtungen.

Updated on September 30th [06:50 a.m. GMT] with a statement from Meta.

  • Flaw discovered: August 5th, 2025
  • Initial disclosure: August 6th, 2025

Schauen Sie mal hier vorbei


Bild/Quelle: https://depositphotos.com/de/home.html

Folgen Sie uns auf X

Folgen Sie uns auf Bluesky