Anfang des Monats hat Apple eine Strategie zur Bekämpfung von Kinderpornographie vorgestellt. Sie soll ab den kommenden großen Software Updates in Kraft treten. Datenschützer kritisierten das System stark, sodass Apple das Vorgehen präzisiert.
Erkennung von Missbrauchsfotos
Das neue System zur Bekämpfung von Kinderpornographie ist nicht unumstritten. Mittels Hashes soll das iPhone Fotos der iCloud auf kinderpornographische Inhalte prüfen und melden. Kritiker befürchteten, dass damit eine Hintertür geöffnet würde, mit der auch auf andere Bilder gescannt werden könnte.
Apple präzisiert das Vorgehen
Um die einströmende Kritik abzuwehren, hat Apple ein 14-seitiges PDF-Dokument veröffentlicht. Darin wird das neue System präzisiert. So soll eine Meldung an Apple erst ab 30 gefundenen Missbrauchsfotos erfolgen. Außerdem prüft Apple die Fotos noch einmal händisch. Damit sollen Fehler vermieden werden.
Meldung von 3 Falsch-positive Treffer auf 100. Millionen Bilder
Der Konzern räumt zudem ein, dass es auch zu falsch-positiven Treffern kommen kann. Beim Training der Software sei es bei der Prüfung von 100 Millionen Fotos zu drei Treffern gekommen, die keine Kinderpornographie enthielten. Das zeigt noch einmal, wie wichtig die händische Nachprüfung ist. Das gesamte System wird zunächst nur in den USA eingeführt werden, soll aber auch international ausgeweitet werden.