[Update] Angeblich will Apple gespeicherte Fotos auf Kindesmissbrauch überprüfen
Unabhängige Quellen berichten, dass Apple in Zukunft plane, lokal gespeicherte Fotos und Videos auf strafrechtlich relevante Inhalte zu scannen.
Das Thema Kindesmissbrauch und Kinderpornografie schlägt jedes mal (zurecht) hohe Wellen. Kaum ein anderes Thema wird in der Gesellschaft als derart inakzeptabel eingestuft. Mehreren unabhängigen Berichten zufolge möchte Apple seinen Teil dazu beitragen, die Verbreitung von kinderpornografischen Inhalten zu unterbinden. Es gibt bereits Bilderdienste, die eine automatisierte Prüfung ablaufen lassen, um gegen derartige Fotos und Videos vorzugehen.
Apple möchte diesen Kampf angeblich unterstützen, indem auch die lokal gespeicherten Dateien mit entsprechenden Scanner durchleuchtet werden. Bei diesem Vorgang wird die Privatsphäre der Kunden nicht außer Acht gelassen. Das System kontrolliert nicht grundsätzlich alle auf dem Gerät befindlichen Dateien. Viel mehr erfolgt ein Abgleich bestimmter Fingerprints mit den auf dem Gerät abgelegten Fotos. Sofern das System eine Übereinstimmung meldet, erfolgt eine genaue Überprüfung durch eine reale Person.
Kritik lässt nicht auf sich warten
Der Kryptografie- und Sicherheits-Experte Mathew Green hat sich direkt in die Diskussion eingeschaltet und bemängelt folgenden Tatsache: Eine solche Maßnahme birgt grundsätzlich ein großes Gefahrenpotenzial. Algorithmen wie diese seien anfällig für Falschmeldungen. Das hätte zur Folge, dass auch völlig harmlose Fotos vom Scanner erkannt werden, wodurch die Privatsphäre anderer Nutzer grundsätzlich in Frage gestellt werden muss.
Darüber hinaus wäre ein solches System auch in der Lage in instabilen Ländern Unterdrückung von politischen Gegnern und Oppositionellen zu begünstigen.
Keine offizielle Bestätigung von Apple
Eine offizielle Bestätigung von Apple blieb bislang aus. Green versicherte jedoch eine Bestätigung von mehreren unabhängigen Quellen. Demnach arbeite Apple aktuell an der Entwicklung eines solches Systems. Im ersten Schritt beschränke sich das Unternehmen jedoch auf die Auswertung von Bildern, die ohne Ende-zu-Ende-Verschlüsselung in der Cloud gespeichert sind.
Danach wäre auch eine Erweiterung auf Messenger mit Ende-zu-Ende-Verschlüsselung möglich. Damit würde Apple auch den langjährigen Anforderungen internationaler Ermittlungsbehörden gerecht werden. Eine Möglichkeit der Offenlegung besteht allerdings auch bereits jetzt. Mit richterlichem Beschluss müssen die entsprechende Bilderdienste Zugriff auf unverschlüsselte Nutzerdaten zulassen.
Update: iPhone-Scanning offiziell bestätigt
Bereits am gestrigen Donnerstagabend bestätigte Apple die vorangegangen Berichte zum Teil. In einem White Paper erklärte der Konzern aus Kalifornien die zukünftigen Maßnahmen gegen Kindesmissbrauch.
Demnach wird mit iOS 15 und iPadOS 15 ein Feature eingeführt, mit dem die Galerien der jeweiligen Nutzer auf kinderpornografische Inhalte überprüft werden können. Wie bereits gestern beschrieben, befürchten Sicherheitsforscher rund um den Globus eine Fass ohne Boden. Das Verfahren könnte am Ende auch bei Ende-zu-Ende-verschlüsselten Anwendungen eingesetzt werden und den ursprünglichen Sinn der Anwendung zweckentfremden.
Apple betont hingegen, dass die CSAM (Child Sexual Abuse Material)-Überprüfung der Privatsphäre der Nutzer nicht entgegensteht. Allerdings gibt es einen gravierenden Unterschied im Vergleich zu Google, Facebook, Twitter etc., die ebenfalls ein Scanning durchführen: Apple überprüft die Inhalte nicht in der Cloud, sondern direkt auf den jeweiligen Endgeräten des Nutzers.
Dabei erfolgt ein Abgleich mit bereits bekannten CSAM-Inhalten von entsprechenden Datenbanken. Bereitgestellt werden die Daten vom National Center for Missing and Exploited Children. Die von Apple verwendete "NeuroHash"-Methode schlägt dabei nicht nur bei exakt übereinstimmenden Dateien Alarm, sondern auch bei annähernd gleichen Fotos oder Videos. So wird sichergestellt, dass das System die Dateien trotz Veränderung der Größe oder anderen geringen Anpassungen erkennt. Die Überprüfung via "NeuroHash" erfolgt vor dem Upload in die Cloud.
Darüber hinaus plane Apple, das Scanning auf Ende-zu-Ende-verschlüsselte Dienste auszuweiten. So sollen zum Beispiel die iMessage-Inhalte von Kindern auf potenzielle strafrechtliche Inhalte überprüft werden. Auch wenn der dahinterstehende Zweck unstrittig ist, so schlagen Sicherheitsforscher bereits jetzt Alarm. Die Gefahr, das System missbräuchlich zu verwenden, darf dabei nicht ausgeblendet werden, so die Meinung der Kritiker.
Möchtest du keine News mehr verpassen? Folge uns auf Twitter, oder werde unser Fan auf Facebook.
Oder noch besser, lade hier unsere kostenlose App und sei damit immer auf dem neuesten Stand.
Bisher keine Kommentare