Google hat angekündigt, dass es Magika, ein künstliche Intelligenz (KI)-gestütztes Tool zur Identifizierung von Dateitypen, Open Source macht, um Verteidigern zu helfen, binäre und textuelle Dateitypen genau zu erkennen.

Magika übertrifft herkömmliche Methoden zur Dateiidentifikation und bietet insgesamt eine 30%ige Genauigkeitssteigerung und eine um bis zu 95% höhere Präzision bei traditionell schwer identifizierbaren, aber potenziell problematischen Inhalten wie VBA, JavaScript und Powershell“, so das Unternehmen.

Die Software verwendet ein „benutzerdefiniertes, hoch optimiertes Deep-Learning-Modell“, das die präzise Identifizierung von Dateitypen innerhalb von Millisekunden ermöglicht. Magika implementiert Inferenzfunktionen unter Verwendung der Open Neural Network Exchange (ONNX).

Google sagte, dass es Magika intern im großen Maßstab verwendet, um die Sicherheit der Benutzer zu verbessern, indem Gmail-, Drive- und Safe-Browsing-Dateien an die entsprechenden Sicherheits- und Inhaltsrichtlinien-Scanner weitergeleitet werden.

Im November 2023 enthüllte der Technologieriese RETVec (kurz für Resilient and Efficient Text Vectorizer), ein mehrsprachiges Textverarbeitungsmodell zur Erkennung potenziell schädlicher Inhalte wie Spam und bösartiger E-Mails in Gmail.

Angesichts einer laufenden Debatte über die Risiken der schnell entwickelnden Technologie und ihres Missbrauchs durch nationale Akteure aus Russland, China, dem Iran und Nordkorea zur Stärkung ihrer Hacking-Bemühungen, betonte Google, dass der Einsatz von KI im großen Maßstab die digitale Sicherheit stärken und das „cybersecurity balance“ von Angreifern auf Verteidiger verschieben kann.

Es wurde auch betont, dass ein ausgewogener regulatorischer Ansatz für die Nutzung von KI erforderlich ist, um eine Zukunft zu vermeiden, in der Angreifer innovativ sein können, während Verteidiger aufgrund von KI-Regeln eingeschränkt sind.

„Sicherheitsprofis und Verteidiger können ihre Arbeit im Bereich der Bedrohungserkennung, Malware-Analyse, Schwachstellenerkennung, Schwachstellenbehebung und Incident Response durch KI skalieren“, so Phil Venables und Royal Hansen von Google.

Es wurden auch Bedenken hinsichtlich des Einsatzes von generativen KI-Modellen bei der Verwendung von im Web gesammelten Daten zu Trainingszwecken geäußert, die möglicherweise auch persönliche Daten enthalten.

Neue Forschungen haben gezeigt, dass große Sprachmodelle als „Schläferagenten“ fungieren können, die scheinbar harmlos sind, aber programmiert werden können, um sich in betrügerisches oder bösartiges Verhalten zu verwickeln, wenn bestimmte Kriterien erfüllt sind oder spezielle Anweisungen vorliegen.