Details sind über eine jetzt gepatchte Sicherheitslücke in Microsoft 365 Copilot aufgetaucht, die es ermöglichen könnte, sensible Benutzerdaten mithilfe einer Technik namens ASCII-Schmuggel zu stehlen.

„ASCII-Schmuggel ist eine neuartige Technik, die spezielle Unicode-Zeichen verwendet, die ASCII spiegeln, aber in der Benutzeroberfläche nicht sichtbar sind“, sagte Sicherheitsexperte Johann Rehberger.

„Dies bedeutet, dass ein Angreifer das [große Sprachmodell] dazu bringen kann, für den Benutzer unsichtbare Daten zu rendern und sie in anklickbare Hyperlinks einzubetten. Diese Technik inszeniert die Daten im Grunde genommen für die Exfiltration!“

Die gesamte Attacke verbindet eine Reihe von Angriffsmethoden, um sie zu einer zuverlässigen Exploit-Kette zu formen. Dies umfasst die folgenden Schritte:

* Auslösen der Eingabeaufforderungsinjektion über bösartige Inhalte, die in einem Dokument versteckt sind, das im Chat geteilt wird
* Verwenden einer Eingabeaufforderungsinjektions-Payload, um Copilot anzuweisen, nach weiteren E-Mails und Dokumenten zu suchen
* Nutzung von ASCII-Schmuggel, um den Benutzer zum Klicken auf einen Link zu verleiten, um wertvolle Daten auf einen Server eines Drittanbieters zu exfiltrieren

Das Endergebnis des Angriffs ist, dass sensible Daten, die in E-Mails vorhanden sind, einschließlich Mehrfaktor-Authentifizierungscodes (MFA), an einen vom Angreifer kontrollierten Server übertragen werden könnten. Microsoft hat die Probleme nach verantwortungsvoller Offenlegung im Januar 2024 behoben.

Die Entwicklung kommt, da Proof-of-Concept (PoC)-Angriffe gegen Microsofts Copilot-System demonstriert wurden, um Antworten zu manipulieren, private Daten zu exfiltrieren und Sicherheitsvorkehrungen zu umgehen, was erneut die Notwendigkeit hervorhebt, Risiken in Tools der künstlichen Intelligenz (KI) zu überwachen.

Die Methoden, die von Zenity detailliert beschrieben wurden, ermöglichen es böswilligen Akteuren, eine Retrieval-Augmented Generation (RAG)-Vergiftung und eine indirekte Eingabeaufforderungsinjektion durchzuführen, die zu Remote-Code-Ausführungsangriffen führen, die Microsoft Copilot und andere KI-Anwendungen vollständig kontrollieren können. In einem hypothetischen Angriffsszenario könnte ein externer Hacker mit Codeausführungsfunktionen Copilot dazu bringen, Benutzern Phishing-Seiten bereitzustellen.

Vielleicht einer der neuartigsten Angriffe ist die Fähigkeit, die KI in eine Spear-Phishing-Maschine zu verwandeln. Die Red-Teaming-Technik, die LOLCopilot genannt wird, ermöglicht es einem Angreifer mit Zugriff auf das E-Mail-Konto eines Opfers, Phishing-Nachrichten zu senden, die den Stil der kompromittierten Benutzer nachahmen.

Microsoft hat auch anerkannt, dass öffentlich zugängliche Copilot-Bots, die mit Microsoft Copilot Studio erstellt wurden und keine Authentifizierungsschutzmechanismen aufweisen, eine Möglichkeit für Bedrohungsakteure sein könnten, sensible Informationen zu extrahieren, vorausgesetzt, sie verfügen über Vorkenntnisse des Copilot-Namens oder der URL.

„Unternehmen sollten ihre Risikotoleranz und ihr Risiko bewerten, um Datenlecks von Copilots (früher Power Virtual Agents) zu verhindern, und entsprechend Datenverlustprävention und andere Sicherheitskontrollen aktivieren, um die Erstellung und Veröffentlichung von Copilots zu kontrollieren“, sagte Rehberger.