Die Datenschutzbehörde Italiens hat den Hersteller von ChatGPT, OpenAI, wegen mutmaßlicher Verstöße gegen den Datenschutz in der Region informiert. In einer Erklärung am Montag sagte die Garante per la protezione dei dati personali (aka the Garante), dass die verfügbaren Beweise auf Verstöße gegen die Bestimmungen der E.U. GDPR (Allgemeine Datenschutzverordnung) hinweisen. Die Behörde wird auch die Arbeit der speziell eingerichteten Task Force des Europäischen Datenschutzrahmens (EDPB) in ihrer endgültigen Entscheidung in diesem Fall berücksichtigen.

Dies erfolgt fast 10 Monate nachdem die Behörde ein vorübergehendes Verbot von ChatGPT im Land verhängt hatte, kurz nachdem OpenAI eine Reihe von Datenschutzkontrollen angekündigt hatte, einschließlich eines Opt-Out-Formulars, um persönliche Daten von der Verarbeitung durch das große Sprachmodell (LLM) zu entfernen. Der Zugang zu dem Tool wurde Ende April 2023 wiederhergestellt. Die in Italien ansässige Behörde sagte, dass die neuesten Ergebnisse, die nicht öffentlich bekannt gegeben wurden, das Ergebnis einer monatelangen Untersuchung seien, die zur gleichen Zeit eingeleitet wurde. OpenAI hat 30 Tage Zeit, um auf die Vorwürfe zu antworten.

Die Verstöße haben angeblich mit der Sammlung personenbezogener Daten und dem Jugendschutz zu tun. In seiner Hilfe-Seite sagt OpenAI, dass „ChatGPT nicht für Kinder unter 13 Jahren gedacht ist und dass Kinder im Alter von 13 bis 18 Jahren die Zustimmung der Eltern einholen müssen, bevor sie ChatGPT verwenden.“ Es besteht jedoch auch die Sorge, dass sensible Informationen offengelegt werden könnten und jüngere Benutzer möglicherweise unangemessene Inhalte generiert vom Chatbot ausgesetzt werden. Im März 2023 gab OpenAI einen Softwarefehler bekannt, der dazu geführt hatte, dass der Chatbot einigen Benutzern den Verlauf der Konversationen anderer Benutzer angezeigt hatte. Im Dezember brachte das Unternehmen einen Patch heraus, um ein anderes Problem zu beheben, das es einem böswilligen benutzerdefinierten GPT ermöglichen könnte, Chatdaten auf einen externen Server zu exfiltrieren.

In ähnlicher Weise gab es in den letzten Jahren Angriffe auf Generative Künstliche Intelligenz-Tools wie Bard, Claude und Amazon Q for Business, bei denen Injektion von bösartigen Anweisungen und Datenexfiltration demonstriert wurde. Diese KI-Tools, einschließlich ChatGPT, Bard und Claude, sind auf die Zuführung großer Mengen von Daten aus verschiedenen Quellen im Internet angewiesen.

Parallel dazu hat Apple Bedenken gegenüber geplanten Änderungen des britischen Investigatory Powers Act (IPA) geäußert. Apple ist „zutiefst besorgt“ über die vorgeschlagenen Änderungen, da sie der Regierung angeblich beispiellose Befugnisse geben könnten, Updates zur Privatsphäre und Sicherheit ihrer Produkte und Dienstleistungen „heimlich zu blockieren“. Die britische Regierung argumentiert, dass die Einführung sicherer Kommunikationstechnologien, einschließlich Ende-zu-Ende-Verschlüsselung, nicht auf Kosten der öffentlichen Sicherheit und des Schutzes vor sexuellem Missbrauch von Kindern und Terrorismus gehen darf. Die Änderungen haben zum Ziel, die Fähigkeit der Geheimdienste zur „schnelleren Reaktion auf bestehende und aufkommende Bedrohungen der nationalen Sicherheit“ zu verbessern.