ServicesFeatureNews

Missbrauchs-Erkennung: Meldung erst ab 30 Fotos


Werbung



Anfang des Monats hat Apple eine Strategie zur Bekämpfung von Kinderpornographie vorgestellt. Sie soll ab den kommenden großen Software Updates in Kraft treten. Datenschützer kritisierten das System stark, sodass Apple das Vorgehen präzisiert.

Erkennung von Missbrauchsfotos

Das neue System zur Bekämpfung von Kinderpornographie ist nicht unumstritten. Mittels Hashes soll das iPhone Fotos der iCloud auf kinderpornographische Inhalte prüfen und melden. Kritiker befürchteten, dass damit eine Hintertür geöffnet würde, mit der auch auf andere Bilder gescannt werden könnte.

Apple präzisiert das Vorgehen

Um die einströmende Kritik abzuwehren, hat Apple ein 14-seitiges PDF-Dokument veröffentlicht. Darin wird das neue System präzisiert. So soll eine Meldung an Apple erst ab 30 gefundenen Missbrauchsfotos erfolgen. Außerdem prüft Apple die Fotos noch einmal händisch. Damit sollen Fehler vermieden werden.

Meldung von 3 Falsch-positive Treffer auf 100. Millionen Bilder

Der Konzern räumt zudem ein, dass es auch zu falsch-positiven Treffern kommen kann. Beim Training der Software sei es bei der Prüfung von 100 Millionen Fotos zu drei Treffern gekommen, die keine Kinderpornographie enthielten. Das zeigt noch einmal, wie wichtig die händische Nachprüfung ist. Das gesamte System wird zunächst nur in den USA eingeführt werden, soll aber auch international ausgeweitet werden.

Unsere Haltung zu Gewalt
Apfeltalk und das ganze Team verurteilt Gewalt in jeder Form und insbesondere an Kindern. Dies abscheulichen Straftaten gehören verfolgt und die Täter mit der vollen Härte des Gesetzes bestraft. In unserer Berichterstattung geht es um die Verhältnismäßigkeit der Art wie hier ermittelt werden soll.

Werbung



Tags: iMessage, iOS 15, Apple, iCloud

Ähnliche Artikel


Werbung



Einkaufstipps
Beliebte Artikel