Das US-amerikanische National Institute of Standards and Technology (NIST) weist auf die Datenschutz- und Sicherheitsherausforderungen hin, die sich durch die zunehmende Nutzung von Künstlicher Intelligenz (KI) in den letzten Jahren ergeben. Zu diesen Herausforderungen gehören potenzielle feindliche Manipulationen von Trainingsdaten, die Ausnutzung von Schwachstellen in Modellen zur Beeinträchtigung der Leistung des KI-Systems und sogar bösartige Manipulationen, Modifikationen oder bloße Interaktionen mit Modellen, um sensible Informationen über in den Daten repräsentierte Personen, über das Modell selbst oder über firmeneigene Daten zu exfiltrieren.

Da KI-Systeme in zunehmendem Maße in Online-Diensten integriert werden, insbesondere durch die Entwicklung von generativen KI-Systemen wie OpenAI ChatGPT und Google Bard, sind diese Technologien verschiedenen Bedrohungen in verschiedenen Phasen des maschinellen Lernens ausgesetzt. Dazu gehören korrupte Trainingsdaten, Sicherheitslücken in den Softwarekomponenten, Datenmodell-Vergiftung, Schwachstellen in der Lieferkette und Datenschutzverletzungen aufgrund von Prompt-Injektionsangriffen.

Die Angriffe, die erhebliche Auswirkungen auf Verfügbarkeit, Integrität und Privatsphäre haben können, werden grob wie folgt klassifiziert:
1. Umgehung von Angriffen, die darauf abzielen, feindlichen Output zu erzeugen, nachdem ein Modell in Betrieb genommen wurde.
2. Vergiftungsangriffe, die die Trainingphase des Algorithmus ins Visier nehmen, indem korrupte Daten eingeführt werden.
3. Datenschutzangriffe, die sensible Informationen über das System oder die auf ihm trainierten Daten sammeln wollen, indem Fragen gestellt werden, die vorhandene Schranken umgehen.
4. Missbrauchsangriffe, die legitime Informationsquellen kompromittieren wollen, wie zum Beispiel eine Webseite mit falschen Informationen, um die beabsichtigte Verwendung des Systems umzulenken.

Solche Angriffe können von Bedrohungsakteuren durchgeführt werden, die über umfangreiches Wissen (White-Box), minimales Wissen (Black-Box) oder eine partielle Kenntnis einiger Aspekte des KI-Systems verfügen (Gray-Box).

Die Behörde wies zudem auf den Mangel an robusten Gegenmaßnahmen hin, um diesen Risiken entgegenzuwirken, und forderte die breitere Technologiegemeinschaft auf, „bessere Verteidigungslinien“ zu entwickeln. Dies erfolgt mehr als einen Monat nachdem das Vereinigte Königreich, die USA und internationale Partner aus 16 weiteren Ländern Leitlinien für die Entwicklung sicherer Künstlicher Intelligenz (KI)-Systeme veröffentlicht haben.

„Obwohl KI und maschinelles Lernen erhebliche Fortschritte gemacht haben, sind diese Technologien anfällig für Angriffe, die spektakuläre Ausfälle mit schwerwiegenden Folgen verursachen können“, sagte Apostol Vassilev, Informatiker des NIST. „Es gibt theoretische Probleme bei der Absicherung von KI-Algorithmen, die einfach noch nicht gelöst sind. Wenn jemand etwas anderes behauptet, verkauft er Schlangenöl.“