Apple plant neue Technologie gegen Kinderpornografie

16
335
6G
© ra2 studio - stock.adobe.com
Anzeige

Apple will – zunächst in den USA – ein System einführen, das kinderpornografische Inhalte auf Geräten entdecken soll, ohne den Datenschutz aufzugeben.

Apple unterstützt den Kampf gegen Kinderpornografie mit einem radikalen Schritt. Der Konzern will von Herbst an zunächst Fotos auf Geräten von US-Nutzern bei Nutzung des hauseigenen Online-Speicherdienstes iCloud mit einer Liste von bekanntem kinderpornografischen Material abgleichen lassen. Apple stellte dafür am Donnerstag ein komplexes Verfahren vor, das den Datenschutz sicherstellen soll.

Für den Abgleich soll auf die Geräte eine Datei mit sogenannten „Hashes“ von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich bei einem Vergleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.

Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele es dafür sein müssen, wird nicht öffentlich gemacht.

Wird dann bei der Überprüfung tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann.

Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen diese Systemversion installiert wird. Aktualisiert werden soll die Liste auf den Geräten entsprechend mit Erscheinen neuer Versionen der Betriebssysteme von iPhones und iPad-Tablets. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.

Kontosperrung bei Fund

Nutzer, bei denen durch den Abgleich bekanntes kinderpornografisches Material gefunden wird, werden darüber nicht unterrichtet. Allerdings wird dabei ihr Konto gesperrt. Den Abgleich über Hashes nutzen zum Beispiel auch Online-Plattformen, um solche Inhalte bereits beim Hochladen zu entdecken und ihre Veröffentlichung zu verhindern. Das Verfahren funktioniert nach Branchenangaben praktisch fehlerfrei für Fotos – greift aber noch nicht bei Videos.

Kritiker der heute gängigen Verschlüsselung von privater Kommunikation in Chatdiensten und auf Smartphones führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument auf, um Hintertüren für Behörden zu fordern. Apples angekündigtes System ist ein Versuch, das Problem auf andere Weise zu lösen. Der Konzern wehrte sich wiederholt gegen Forderungen von US-Sicherheitsbehörden, die Verschlüsselung seiner Geräte bei Ermittlungen zu knacken. Der Fokus auf Hashes von bereits bekannten Fotos bedeutet zugleich, dass neue auf den Geräten erstellte Inhalte nicht entdeckt werden.

Mögliche Gefahren der Hashes

Apple veröffentlichte Analysen mehrerer Experten, die den Datenschutz bei dem Verfahren begrüßten. Zugleich kritisierte bei Twitter ein Kryptografie-Experte an der US-Universität Johns Hopkins, Matthew Green, dass überhaupt die Möglichkeit zum Abgleich von Dateien auf den Geräten geschaffen werde. Er sieht speziell die Gefahr, dass jemand Hashes für andere Inhalte auf Geräte schleusen könnte – und dass autoritäre Regierungen Vorschriften zur Suche nach anderen Inhalten auf diese Weise erlassen könnten.

Mit einer weiteren Funktion wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt. Der Konzern erfährt nichts davon.

Text: dpa/ Redaktion: JN

Bildquelle:

  • Smartphones: © ra2 studio - stock.adobe.com

16 Kommentare im Forum

  1. Für diesen Zweck wird die Überwachungstechnologie zum Teil ja nun bejubelt. Natürlich möchte jeder Kindesmissbrauch verhindern. Aber die Technologie kann auf vielfältige Weise zur Überwachung genutzt werden und den Begriff "Datenschutz" sollte man in dem Zusammenhang überhaupt nicht mehr erwähnen. Snowden hat sich schon äußerst kritisch zu weiteren Ausspähungsmöglichkeiten dieser Technik geäußert. Apple: Massive Kritik an Foto-Funktion "neuralMatch"
  2. Ein weiterer Beleg Apple zu meiden... Dabei dachte ich vor kurzem noch sie seien auf einem guten Weg.
Alle Kommentare 16 im Forum anzeigen

Kommentieren Sie den Artikel im Forum