• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Wir haben den Frühjahrsputz beendet, Ihr auch? Welches Foto zu dem Thema hat Euch dann am Besten gefallen? Hier geht es lang zur Abstimmung --> Klick

Missbrauchs-Erkennung: Meldung erst ab 30 Fotos

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.142
Und selbst noch so geringe falsche Treffer (False Positives) führen aufgrund der schieren Menge dann doch wieder zu erschreckend hohen absoluten False Positives.
Dass die Schwelle von 30 Bildern pro Account durch False-Positives erreicht wird, scheint aber praktisch unmöglich zu sein.

Es ist nicht einmal ausgeschlossen, dass Strafverfolger und Geheimdienste Apple dazu "überredet" haben, weil sie wissen, nie die rechtlichen Mittel dazu per Gesetz zu bekommen.
Das glaube ich nicht. Dafür ist die Funktion viel zu ausgeklügelt und kompliziert
 

allans1976

Eifeler Rambour
Registriert
17.06.15
Beiträge
599
(1)
Es wäre jedoch denkbar, dass so ein Bild von irgendjemandem auf die besagte Blacklist gesetzt wird. Wie es dort hinkommen kann, würde hier zu weit führen und ist zumindest aktuell gar nicht das Problem. ..

(2)
Man kann fragen, warum Apple das Verfahren dann öffentlich macht und nicht heimlich einführt?
Nun, Apple hat sich seit Jahrzehnten als Robin Hood zum Schutz der Privatsphäre dargestellt. Was sie jetzt machen, ist schon ein Drahtseilakt. Das heimlich einzubauen und dann erwischt zu werden, könnte das Firmenende bedeuten. Auch dem wertvollsten IT-Unternehmen geht irgendwann das Geld aus.

(1)
Jetzt wo es interessant wird, machst du eine Biege. Also, Butter bei die Fische:
Wie genau soll es nun also konkret unbemerkt dorthin kommen?

(2)
Weil eine Veröffentlichung vielleicht Transparenz für die Kunden von Apple erzeugt?
Weil das Thema so neu und überraschend doch in Summe gar nicht ist?

Zwar startet CSAM (und die Kinderschutzfunktion in iMessage) zunächst in den Vereinigten Staaten; dennoch mache ich im Hinblick auf die EU auf folgenden Sachverhalt (wie schon im korrespondierenden Thread) aufmerksam: Auszug:
.. (Bereits) am 7. Juli unterstützte das Europäische Parlament befristete Vorschriften, mit denen Anbieter von internetbasierten E-Mail-, Chat- und Messenger-Diensten Inhalte mit Darstellungen von sexuellem Missbrauch auf freiwilliger Basis erkennen, entfernen und melden können. Außerdem können sie Scanning-Technologien zur Erkennung von Cyber-Grooming einsetzen.

Online-Material, das mit sexuellem Missbrauch von Kindern in Verbindung gebracht wird, kann durch sogenannte Hashing-Technologien aufgespürt werden, die Inhalte wie Bilder und Videos scannen. Mithilfe von künstlicher Intelligenz können Text- oder Verkehrsdaten analysiert und Online-Grooming erkannt werden. Die Regelung gilt nicht für das Durchsuchen von Audiokommunikation.

Gemäß dem Bericht über den Vorschlag für die Verordnung muss das Material mit Technologien verarbeitet werden, die am wenigsten in die Privatsphäre eingreifen und nicht in der Lage sind, die Substanz der Inhalte zu verstehen, sondern nur Muster erkennen können.

Apple kündigte die neuen Funktionen am 05. August (zunächst für die USA) an.
 
Zuletzt bearbeitet:

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.011
Ich stelle mir gerade die Frage warum muss man denn eigentlich Bilder von seinem nackten Kind anfertigen? Bilder die es nicht gibt können nicht in „Umlauf „ geraten.
Auf die Frage habe ich schon gewartet... und kann trotzdem nur "ernsthaft?" zurückfragen.

Erinnerungsbilder vom Toben im Garten? Geschwisterquatsch in der Badewanne? Babybilder?

Und was soll "Umlauf" bedeuten? Wir sprechen nicht von Eltern, die sowas dann auf Social Media teilen.
 

Mitglied 246615

Gast
(1)
Jetzt wo es interessant wird, machst du eine Biege. Also, Butter bei die Fische:
Wie genau soll es nun also konkret unbemerkt dorthin kommen?
Vielleicht geilen sich Pädophile auch an unpoblematischen Nackt-Fotos auf?
Weil man das Foto an ein paar Verwandte und Bekannte gesendet hat, könnte darunter jemand sein, der das Foto auf einschlägigen Seiten veröffentlich hat.

Ohne die Arbeit der beteiligten Organisationen genau zu kennen, würde ich annehmen, dass sie grundsätzlich Fotos löschen, die in einschlägigen Kanälen unter Pädolphilen getauscht werden.
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.011


Apple’s child-abuse scanner has serious flaw, researchers say

[...]

Once the code was public, more significant flaws were quickly discovered. A user called Cory Cornelius produced a collision in the algorithm: two images that generate the same hash. If the findings hold up, it will be a significant failure in the cryptography underlying Apple’s new system.

[...]

Und hier mal ein ganz interessanter Artikel zur allgemeinen Einordnung und auch mal ein paar praktischen Zahlen aus diesen Verfahren:

 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Dass die Schwelle von 30 Bildern pro Account durch False-Positives erreicht wird, scheint aber praktisch unmöglich zu sein.
Da braucht Dir aber nur mal 30 manipulierte Bilder unterjubeln. Oder die Fotos von den eigenen Kindern nah genug vom Hashwert an irgendwelchen illegalen Bildern sein.
 

smokin.shutdown

Cox Orange
Registriert
23.07.18
Beiträge
97
Auf die Frage habe ich schon gewartet... und kann trotzdem nur "ernsthaft?" zurückfragen.

Erinnerungsbilder vom Toben im Garten? Geschwisterquatsch in der Badewanne? Babybilder?

Und was soll "Umlauf" bedeuten? Wir sprechen nicht von Eltern, die sowas dann auf Social Media teilen.



Hallo

ich meinte mit in Umlauf bringen tatsächlich die Leute die die Nackt Urlaubs Bilder ihrer Kinder auf den bekannten Sozialen Medien Plattformen hochladen.

Aber das wird jetzt dann denke ich sozusagen eine Nebendiskussion insofern als das wir uns hier über die Art und Weise "unterhalten" sollten was Apple da vor hat.
Und da wurde weiter oben ja ein Artikel von heise gepostet der genau meine Meinung wieder spiegelt.
Wenn die die Bilder nachdem ich sie in die I-cloud hochgeladen habe scannen oder versuchen darin illegales Material zu finden dann wäre das für mich OK. ABer das sie das auf meinen Gerät machen betrachte ich als sehr problematisch insofern als das sie mich unter Generalverdacht Stellen und sozusagen bei mir ne digitale Hausdurchsuchung machen.
 

smokin.shutdown

Cox Orange
Registriert
23.07.18
Beiträge
97
Vor allem beweist man mit solchen Beispielen, dass man nicht verstanden hat, was Apple wirklich macht. Apple macht keine Motiv-Erkennung.

Es gibt Listen von Bildern, auf denen sexueller Mißbrauch von Kindern abgebildet ist. Damit man nicht das Bild an sich als Vergleich hernehmen muss, wird aus dem Bild ein Hash erstellt. Das ist nur ein "eindeutiger" Fingerabdruck des Bildes in Form von Buchstaben und Zahlen. Der Hash kommt auf eine Blacklist. Diese ist also nur eine Textdatei und wird jedem Apple-Gerät unter iOS, iPadOS und macOS übertragen. "Eindeutig" habe ich bewußt in Klammern gesetzt, weil die Eindeutigkeit nicht immer gegeben ist.

Apple erstellt nun auf den Endgeräten für jedes Bild auf diesen ebenfalls einen Hash nach dem gleichen Verfahren, wie sie für die Bilder auf der Blacklist erstellt wurden. Dann vergleicht sie für jedes Bild auf dem Endgerät, ob der errechnete Hash auch auf der Blacklist gefunden wird. Übersteigt die Anzahl der übereinstimmenden Hashes 30 Bilder, beginnt die Meldekette.

Hash-Verfahren haben jedoch in sich bereits ein mögliches Problem. Ich habe vielleicht ein Bild auf meinem Apple-Gerät, dass zufällig den gleichen Hash erzeugt wie ein bekanntes Bild auf der Blacklist. Dass soetwas passiert ist bereits sehr unwahrscheinlich und spielt zu einem Gutteil in die geringe Fehlerqoute, die Apple nennt, hinein. Die Wahrscheinlichkeit ist so gering, dass man bisher der Meinung war, Hashes seinen eindeutig. Das ist jedoch mittlerweile für diverse Hash-Verfahren widerlegt. Und selbst noch so geringe falsche Treffer (False Positives) führen aufgrund der schieren Menge dann doch wieder zu erschreckend hohen absoluten False Positives.

Selbst wenn Hashes wirklich zu 100% eindeutig wären, besteht noch ein anderes Problem. Sie ändern sich auch, wenn das Bild verändert wird. Wird eine Kopie davon skaliert, ein Ausschnitt gewählt, der Komprimierungsfaktor geändert, das Komperessionsverfahren verändert und das Bild abgespeichert, entsteht ein neuer Hash. Sogar das Bildformat (JPEG, PNG, TIFF etc.) verändert den Hash. Wer schlau ist, verändert das Bild einfach nach einer oder mehreren der genannten Methoden uns schon wäre das Hash-Verfahren gegenüber der bearbeiteten Bilder blind.

Apple hat nun ein Verfahren entwickelt, das offenbar ein Bild in Segmente zerlegt und "normalisiert", so dass ein Bild trotz all den genannten Änderungsmöglichkeiten anhand eines Hashes oder einer Gruppe von Hashes wiedererkannt werden kann.

Das bedeutet, das Nacktfoto vom eigenen Kind beim baden oder plantschen im Pool oder im Meer wird von dem von Apple geplanten System gar nicht erkannt. Diese Angst ist aktuell unbegründet. Es wäre jedoch denkbar, dass so ein Bild von irgendjemandem auf die besagte Blacklist gesetzt wird. Wie es dort hinkommen kann, würde hier zu weit führen und ist zumindest aktuell gar nicht das Problem.

Das System von Apple ist aber auch gegenüber neuen Bildern, die sexuellen Mißbrauch von Kindern abbilden, blind. Solange, bis es einer der beteiligten Organisationen bekannt ist, ein Hash erstellt wurde, dieser auf die Blacklist kommt und die aktuelle Blacklist auf Endgeräte übertragen wurde.

Der sogenannte Dammbruch ist, dass Apple alle Geräte mit iOS 15 oder neuer, iPadOs 15 oder neuer und macOS 12 oder neuer in dieser Art untersuchen will. Das sind milliarden Geräte weltweit. Das bedeutet, alle Apple-Nutzer werden von Apple unter einen Generalverdacht gestellt. Zwar soll das Verfahren zunächst auf die USA beschränkt sein, aber eine weltweites Ausrollen ist geplant, jedoch von den jeweiligen rechtlichen Voraussetzungen abhängig. Es kann also sein, dass wir in Europa nie diese Funktion aktiviert bekommen. Ob den Amis es lieber ist als uns Europäern (oder den Bewohnern beliebiger anderer Erdteile), von dem Unternehmen, dem sie durch Kauf der Ware Vertrauen aussprechen, unter Generalverdacht gestellt zu werden, wage ich zu bezweifeln.

Aufgrund der fehlenden Motiverkennung sehen einige darin keine Durchsuchung gegeben. Ich hingegen sehe das sehr wohl als Durchsuchung an, immerhin muss ja von jedem Bild auf dem Endgerät ein Hash erstellt werden und für das Endgerät ist ein Bild oder ein Hash immer nur eine Folge von mehr oder weniger vielen Nullen und Einsen.

Tatsächlich könnte Apple mit der Begründung "sexueller Mißbrauch von Kindern" ein Verfahren massenhaft austesten wollen, das später auch für andere Zwecke eingesetzt wird. Gegen die Bekämpfung von sexuellem Mißbrauch von Kindern kann man aus moralischen Gründen nicht ein. Aber wenn man nur die moralische Brille aufhat, dann fällt es immer schwerer dagegen zu argumentieren, wenn die Gründe ausgeweitet werden.

Es ist nicht einmal ausgeschlossen, dass Strafverfolger und Geheimdienste Apple dazu "überredet" haben, weil sie wissen, nie die rechtlichen Mittel dazu per Gesetz zu bekommen. Dass dieses Vorgehen Realität ist, wissen wir seit 2012!

Man kann fragen, warum Apple das Verfahren dann öffentlich macht und nicht heimlich einführt?
Nun, Apple hat sich seit Jahrzehnten als Robin Hood zum Schutz der Privatsphäre dargestellt. Was sie jetzt machen, ist schon ein Drahtseilakt. Das heimlich einzubauen und dann erwischt zu werden, könnte das Firmenende bedeuten. Auch dem wertvollsten IT-Unternehmen geht irgendwann das Geld aus.

Für mich ist der "Drahtseilakt" sogar ein erheblicher Hinweis darauf, dass hinter der Funktion weit mehr Weltpolitik steckt, als wir uns ausmalen.

Hallo

Ja du hattest recht als ich die Frage gestellt habe hatte ich keine Ahnung was genau Apple da vor hat.