Die Europäische Kommission hat am Mittwoch eine neue Verordnung vorgeschlagen, die Tech-Unternehmen dazu verpflichten würde, nach Material über sexuellen Kindesmissbrauch (CSAM) und Grooming-Verhalten zu suchen, was die Befürchtung aufkommen lässt, dass dies die Ende-zu-Ende-Verschlüsselung (E2EE) untergraben könnte.

Zu diesem Zweck sollen Anbieter von Online-Diensten, einschließlich Hosting-Diensten und Kommunikations-Apps, ihre Plattformen proaktiv auf CSAM scannen und den Zugang zu solchen illegalen Inhalten melden, entfernen und deaktivieren.

Während Instant-Messaging-Dienste wie WhatsApp bereits auf gehashte Versionen bekannter CSAM zurückgreifen, um neue Uploads von Bildern oder Videos, die ihnen entsprechen, automatisch zu blockieren, verlangt der neue Plan von diesen Plattformen, neue Instanzen von CSAM zu identifizieren und zu kennzeichnen.

„Die Erkennungstechnologien dürfen nur zur Aufdeckung von sexuellem Kindesmissbrauch eingesetzt werden“, so die Regulierungsbehörde. „Die Anbieter müssen Technologien einsetzen, die nach dem Stand der Technik in der Branche am wenigsten in die Privatsphäre eingreifen und die Fehlerquote von falsch-positiven Meldungen so weit wie möglich begrenzen.“

Ein neues EU-Zentrum für sexuellen Kindesmissbrauch, das unabhängig eingerichtet wird, um die Maßnahmen durchzusetzen, hat die Aufgabe, eine Datenbank mit digitalen „Indikatoren“ für sexuellen Kindesmissbrauch zu führen und legitime Meldungen für Strafverfolgungsmaßnahmen zu bearbeiten und weiterzuleiten.

Außerdem müssen die App-Stores sicherstellen, dass Kinder keine Apps herunterladen, die sie „einem hohen Risiko der Anwerbung von Kindern aussetzen können“.

Der umstrittene Vorschlag, gegen sexuelles Missbrauchsmaterial vorzugehen, kommt nur wenige Tage, nachdem Anfang der Woche ein Entwurf der Verordnung durchgesickert war, was den Sicherheitsforscher Matthew Green von der Johns Hopkins University zu der Aussage veranlasste: „Das ist wieder wie bei Apple“.

Der Tech-Gigant, der letztes Jahr angekündigt hatte, CSAM auf seinen Geräten zu scannen und zu erkennen, hat die Einführung inzwischen verschoben, um „in den kommenden Monaten zusätzliche Zeit zu haben, um Input zu sammeln und Verbesserungen vorzunehmen“.

Auch Meta hat seine Pläne zur Unterstützung von E2EE in allen seinen Messaging-Diensten, WhatsApp, Messenger und Instagram, auf irgendwann im Jahr 2023 verschoben und erklärt, dass es sich die Zeit nehmen will, um „alles richtig zu machen“.

Ein Hauptanliegen in Bezug auf Datenschutz und Sicherheit, das sich aus dem Scannen von Geräten nach illegalen Bildern von sexuellem Missbrauch ergibt, ist, dass die Technologie die Privatsphäre schwächen könnte, indem sie Hintertüren schafft, um den E2EE-Schutz zu umgehen und eine groß angelegte Überwachung zu ermöglichen.

Dies würde auch einen ständigen Klartext-Zugang zu den privaten Nachrichten der Nutzer/innen erfordern, wodurch E2EE inkompatibel würde und die Sicherheit und Vertraulichkeit der Kommunikation untergraben würde.

„Die Vorstellung, dass all die Hunderte von Millionen Menschen in der EU ihre intime private Kommunikation, von der sie vernünftigerweise erwarten, dass sie privat ist, wahllos und generell rund um die Uhr durchsuchen lassen, ist beispiellos“, sagt Ella Jakubowska, politische Beraterin bei European Digital Rights (EDRi), gegenüber Politico.

Die durch Verschlüsselung gewährte Privatsphäre erweist sich aber auch als zweischneidiges Schwert, denn die Regierungen wehren sich zunehmend gegen die Befürchtung, dass verschlüsselte Plattformen von böswilligen Akteuren für Terrorismus, Cyberkriminalität und Kindesmissbrauch missbraucht werden.

„Verschlüsselung ist ein wichtiges Instrument für den Schutz der Cybersicherheit und der Vertraulichkeit der Kommunikation“, so die Kommission. „Gleichzeitig könnte die Verschlüsselung als sicherer Kanal von Kriminellen missbraucht werden, um ihre Taten zu verbergen, und so die Bemühungen behindern, die Täter von sexuellem Kindesmissbrauch vor Gericht zu bringen.

Die Entwicklung unterstreicht die ständigen Bemühungen von Big Tech, ein Gleichgewicht zwischen Privatsphäre und Sicherheit herzustellen und gleichzeitig die Strafverfolgungsbehörden bei ihrer Suche nach Zugang zu kriminellen Daten zu unterstützen.

„Der neue Vorschlag ist zu weitreichend, nicht verhältnismäßig und schadet der Privatsphäre und der Sicherheit aller“, sagte die Electronic Frontier Foundation (EFF). „Die Anforderungen an das Scannen unterliegen zwar Sicherheitsvorkehrungen, aber sie sind nicht stark genug, um die in die Privatsphäre eingreifenden Maßnahmen zu verhindern, zu denen die Plattformen verpflichtet werden.