• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Apple prüft Fotos künftig auf Kinderpornographie

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.022
kleine Korrektur: Auch Apple gleicht bereits cloud-seitig die Bilder mit CSAM ab wie es das alle großen US-Anbieter tun.
richtig. Das wissen wir aber. Musste man hier zwar vor ein paar Monaten erst klar stellen, weil es wieder nicht geglaubt wurde (weil Apple Privacy und E2E und so)… aber das ist grundsätzlich bekannt.

Die Problematik am neuen Verfahren ist aber, dass dies eben auch lokal passieren kann. Und damit selbst dann, wenn ich keinen Clouddienst nutze. Damit schaut man zukünftig lokal auf dein Gerät, was du da wohl so tust. Zumindest hat man die Technik dazu. Und wo Möglichkeiten sind, werden Begehrlichkeiten geweckt.
Auch in Deutschland. Siehe die aktuellen PAG, bei denen man sich eigentlich nur ungläubig die Augen reiben kann, wie so etwas beschlossen wurde und wieso das kaum niemand mitbekommen hat.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.160
Und damit selbst dann, wenn ich keinen Clouddienst nutze.
Das stimmt so nicht. Das Verfahren kommt zum Einsatz, wenn Bilder in die iCloud geladen werden. „To help address this, new technology in iOS and iPadOS will allow Apple to detect known CSAM images stored in iCloud Photos. (…) Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes.“

 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.022
Das stimmt so nicht. Das Verfahren kommt zum Einsatz, wenn Bilder in die iCloud geladen werden. „To help address this, new technology in iOS and iPadOS will allow Apple to detect known CSAM images stored in iCloud Photos. (…) Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes.“

Aktuell. Ist ein Schalter das zu ändern. Deshalb ja „Begehrlichkeiten“.

Welches Argument hätte Apple denn, das zu verhindern, wenn es heißt „ach, ihr prüft auf CSAM wenn man iCloud aktiv hat. Direkt am Handy. Aber wenn man das nicht hat, dann lasst ihr die Verbreitung zu? Obwohl ihr es direkt am Handy prüfen könnt? Ihr unterstützt das wohl?“

Was da ist, wird genutzt werden. Das kann man als Naturkonstante betrachten.
 

FuAn

Moderator
AT Moderation
Registriert
18.07.12
Beiträge
2.287
Er meint vermutlich die Lawine an staatlichen Wünschen, die weltweit über Apple hereinbrechen wird.

Yep und wenn China dann erstmal sagt, ihr macht das nun für uns für politische Inhalte, oder wir machen euch nächste Woche in China den Laden dicht… Apple war da bei den AppStore Themen bisher nicht sooo standhaft…
Und wenn die Chinesen bekommen was sie wollen, sind die Russen an der Reihe und dann sagt der NSA was ihr für die macht, wollen wir aber auch…

Ich glaube es ist eine Büchse der pandora

Jetzt noch zum Spaß:
Und eine neue grüne Bundesregierung lässt dann von Apples KI automatisch alle Männer von Fotos entfernen ;)
 

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.731
Was passiert eigentlich, wenn ich mein fünfjähriges Kind am Strand oder am Pool des Ferienhauses nackt fotografiere?
 

Mitglied 87291

Gast
@dtp

Nichts, da Apples Erkennung deine Fotos nur auf Übereinstimmung mit einer Kinderpornografie-Datenbank überprüft. Täter werden dadurch halt nicht erkannt, nur sammler.
Wobei jemand mit so viel krimineller Energie sicherlich weiß welche Systeme er meidet.

Wenn deine Bilder von der Überprüfungsvereinigung allerdings als Kinderpornografie geflagt werden, der Hash Wert dementsprechend in deren Datenbank auftaucht, dann würden deine Bilder als solche erkannt werden.
 
  • Like
Reaktionen: dtp

maniacintosh

Strauwalds neue Goldparmäne
Registriert
28.12.15
Beiträge
642
Naja, die meisten Hash-Algorithmen sind ja nicht eindeutig. Zu jedem Hash gibt es zumindest theoretisch mehr als ein Bild, wobei man davon ausgehen kann, dass die meisten davon eben einfach mehr oder weniger zufällig angeordnete bunte Pixel ergeben würden. Aber es ist zumindest denkbar, dass zu einem Hash eine Schmuddelbildes eben auch das Foto vom Kölner Dom passt, dass man 2019 auf dem Städtetrip gemacht hat. Klar wäre ein komischer Zufall, aber da Apple das Ganze ja noch mit ein wenig KI anreichern will, um auch ähnliche Bilder erkennen zu können, erhöht es zumindest die Wahrscheinlichkeit, dass ein anderes Foto ähnlich genug ist, damit der Algorithmus anschlägt.

Was meint ihr warum da noch mal ein Mensch drauf gucken soll, bevor wirklich gemeldet wird...
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.022
Was passiert eigentlich, wenn ich mein fünfjähriges Kind am Strand oder am Pool des Ferienhauses nackt fotografiere?
"Noch" nichts. Da es gegen die Hashdatenbank keinen Treffer liefern wird. Aktuell wird ja nur gegen eine Datenbank an bereits bekannten Material geprüft. Das heißt, der Alarm schlägt erst los, wenn bei dir mehrere ggf. szenebekannte Bilder oder Videos gefunden werden.
So gesehen also erstmal "safe".


Aaaaaaber... und jetzt sind wir beim großen Aber....

Apple möchte ja jetzt schon sexuelle Inhalte "frei" erkennen. Ohne Datenbank im Hintergrund. "Erstmal nur" als Kinder- und Jugendschutz in iMessage, falls dem Nachwuchs ein "d*ckpick" oder ähnliches zugeschickt wird. "hey, das Bild könnte dich verstören, willst du das wirklich öffnen?". Aber eben frei nur auf Basis dessen was da gesehen wird.

Und wie lange wird es wohl dauern, bis diese "Erkennung" von unangemessenen Inhalten auch global auf "zeigt ein Kind nackt", "zeigt ein Kind in einer auffälligen Pose" etc. angewendet wird?

Und dann würde es ganz schön tricky. Gerade international. Und selbst wenn du letztendlich nach deutschem Recht "safe" wärst, wenn du Bilder deiner Kinder in der Badewanne aufnimmst ... wenn US-Behörden den deutschen Behörden melden "der da, der könnte Material haben". Denn jenachdem wie dann die Behörden hier reagieren ... erstmal hättest du einen unfassbaren Ärger und vor allem eine niemals wieder gut zu machende Rufschädigung für den Rest deines Lebens von Freunden über Nachbarn bis hin zum Arbeitgeber.

Was da gerade passiert ist NICHT OHNE. Da gibt es nichts zum schönreden, da kann man sich auch nicht mit "ich hab nichts zu verbergen" rausreden.

Pandoras Box.
 

Mure77

Golden Noble
Registriert
25.06.07
Beiträge
14.992
iMessage Nachrichten sind Ende-zu-Ende verschlüsselt. Die Prüfung auf diese Inhalte erfolgt also rein auf dem Gerät selbst. Kann deshalb die Kritik daran nicht wirklich nachvollziehen.

Letzte Woche wurde auch ein Ring gesprengt durch die Einsicht in verschlüsselte Chats. Grundsätzlich natürlich gut.

Datenschutz in der Form wie uns verkauft wird gibt es nicht, gab es nicht, wird es nicht geben.

Wenn alles nichts hilft macht man eine Bildschirmüberwachung 🤷🏼‍♂️.
 
  • Like
Reaktionen: Mitglied 87291

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.051
Es geht nicht nur um iMessage, wenn ich das richtig verstanden habe. Es sollen auch die Fotos in der iCloud gehasht werden und gegen bekannte Hashes verglichen werden.

Genau. Ich habe das Gefühl, auch durch Zwischenfragen hier oder auf anderen Newsseiten, dass das Hashen nicht verstanden wird.

Erst mal meinen Viele, dass nun alle Fotos gescannt werden, und wenn ein entkleidetes Kind darauf zu sehen ist, wird es gemeldet. Das ist nicht so.
Und daher kann ich auch den Vergleich nicht nachvollziehen, der vielerorts gezogen wird ("wenn Regierungen dann Bilder von Demonstrationen gescannt haben wollen...").
Was hat das Eine mit dem Anderen zu tun?

Die Datenbank ist nicht in solch einer Regierungskonstellation untergebracht.

Das ist mir bei dem Thema zu viel "wenn dann vielleicht eventuell sich doch der Mond vergrößert, dann könnte die gelbe Seerose schwarz werden und es wird nachts kälter als draußen".
 

Mitglied 87291

Gast
@Sequoia
Apple nutzt aber eben kein reines Hashing sondern den von Apple so genannten Neuro-Hash. Dadurch kann Apple auch Bildausschnitte in unterschiedlichen Größen und Formaten filtern. Du hast ein Foto der Widerstandsbewegung mit Logo? Kann erkannt werden. Du teilst ein Bild das unter oppositionellen beliebt ist? Kann erkannt werden.

Dass die Bilder nicht durch eine AI nach Inhalt gescannt werden (und hochgeladen, gescannt werden sie thematisch ja bereits) ist begrüßenswert, trotzdem löst das nicht die Probleme die Apple mit dieser Vorgehensweise auf den Plan ruft.
 

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.389
So ein Verfahren bringt ganz neue Möglichkeiten, um "Terroristen" zu finden.

Ich denke, es wird jetzt oder künftig auch die Möglichkeit geben, nicht nur Fotos mit einem Hash zu erkennen, sondern auch Gesichter. Ein iPhone macht das ja im Prinzip heute schon so und kann die Fotos nach Personen gruppieren.

Wenn man nun die Kindesmissbrauchsfotosdatenbank austauscht gegen eine Terrorfahndungskartei, kann man ruckzuck alle Leute finden, die einen Terroristen fotografiert haben. Und das mit GPS-Position und Uhrzeit. Wie praktisch, dass man gleich die iCloud-Backups auch durchsuchen kann.

Natürlich wird man das nur mit amtlichen Terroristen machen. Niemals mit anderen Menschen.

Wo ein Trog steht, sammeln sich nämlich niemals Schweine.
 

maniacintosh

Strauwalds neue Goldparmäne
Registriert
28.12.15
Beiträge
642
Genau. Ich habe das Gefühl, auch durch Zwischenfragen hier oder auf anderen Newsseiten, dass das Hashen nicht verstanden wird.

Erst mal meinen Viele, dass nun alle Fotos gescannt werden, und wenn ein entkleidetes Kind darauf zu sehen ist, wird es gemeldet. Das ist nicht so.
Und daher kann ich auch den Vergleich nicht nachvollziehen, der vielerorts gezogen wird ("wenn Regierungen dann Bilder von Demonstrationen gescannt haben wollen...").
Was hat das Eine mit dem Anderen zu tun?

Naja, wenn die Bilder erstmal gegen eine Datenbank abgeglichen werden, ist es ein winzig kleiner Schritt eben auch anderes als Kinderpornographie dort zu hinterlegen und die Behörden bei Treffern zu unterrichten. Auch wenn es aktuell heisst, dass dies nur mit Bildern passiert, die danach in die Cloud geladen werden, ist es nur eine Kleinigkeit dies zu ändern. Vermutlich nur ein Parameter den man anpassen muss.

Und Apple ist im Bereich KI und gerade bei Bildern am Entwickeln, wenn auch in erster Linie für Features und bessere Bilder, aber wer sagt denn, dass der Hash-Abgleich der letzte Schritt sein wird?

Die Datenbank ist nicht in solch einer Regierungskonstellation untergebracht.

Dann kommen die Hashes, die China, die NSA, Russland gerne hätte halt in eine eigene Datenbank. Man wird sicher überzeugende Argumente haben, warum die Bilder unbedingt auch gegen diese zusätzliche Datenbank abgeglichen werden müssen.

Es hat schon einen Grund, warum auch hierzulande bei allen Überwachungsmaßnahmen erst mal die Jagd auf Kinderpornographie vorgeschoben wird, um diese einzuführen. Dies passiert alle Jahre wieder z.B. mit der Vorratsdatenspeicherung. Gegen Verhindern von Kinderpornographie kann ja keiner etwas haben. Ist die Technik aber erstmal etabliert, wird sie schnell aber auch in anderen Fällen genutzt werden. Auch wenn das Sprichwort nicht 1:1 passt, aber "Gelegenheit macht Diebe". Und seien wir ganz ehrlich: Die Politik hat von Anfang an nicht primär die Jagd auf Kinderpornographie im Sinn, dass ist nur das Vehikel mit dem man die Büchse der Pandora öffnen möchte.

Und es bleibt sowohl bei dem Prüfen der Bilder oder auch der Vorratsdatenspeicherung ein Haken: Es verhindert nicht, dass die Kinder missbraucht werden und der Schund angefertigt wird. Es dämmt beides bestenfalls die Verbreitung ein, wahrscheinlich lassen beide Maßnahmen im Nachgang nur feststellen, wer so etwas verbreitet hat. Sicher auch das hat einen positiven Effekt, wenn man damit ggf. einschlägige Gruppen ausheben kann.

Und es bleibt die Frage: Ist es angemessen dafür alle Menschen oder nur alle Nutzer von Apple-Produkten unter einen Generalverdacht zu stellen. Es geht hier ja nicht darum nach einem Anfangsverdacht oder Hinweisen einzelne Gruppen oder Personen gezielt zu überwachen, hier wird anlasslos gegen jeden Nutzer ermittelt.

Ich unterstelle Apple selber tatsächlich nicht mal, dass man selber wirklich weitere Intentionen hat diese Technologie zu nutzen, ist sie erstmal da, könnte es aber nicht mehr in Apples Entscheidungsgewalt liegen, wie die Technik weitergehend eingesetzt wird. Gerade in China ist man ja durchaus bereit Zugeständnisse zu machen, um den Markt nicht aufgeben zu müssen.
 

nierensieb

Grahams Jubiläumsapfel
Registriert
08.07.15
Beiträge
107
Mal nach dem Motto "Keine Angst vor Verschwörungstheorien":
Ich bin etwas verstört über Apples Ansatz "Es geht hier um das Beste für unsere Kinder!!1elf!", den ich in der Politik immer wieder finde, wenn eine Tür geöffnet werden soll (Terroristen, schwere Straftaten, Raubkopierer - kommt dann immer im nächsten Schritt). Wieso macht Apple jetzt den Move aus dem Playbook der Politik?

Ich könnte mir vorstellen, dass das die Auswirkungen des San Bernardino-iPhones waren. Danach war doch im Gespräch, ob man Unternehmen wie Apple nicht gesetzlich verpflichten sollte, für Staaten Hintertüren in ihre Produkte einzubauen. Und was wir aktuell sehen ist vielleicht der erste Teil eines Hinterzimmer-Abkommens. Apple macht eine Tür auf, würzt das ganze mit "Aber die Kinder!!!1!", damit der Gegenwind nicht zu groß wird, baut das das Zukunft weiter auf; und vermeidet dadurch eine US-Gesetzgebung, die sie dazu zwingen würde.

Anders krieg ich für mich diese Ankündigung von Apple, die ja wirklich extrem den bisherigen Aussagen zur Datensicherheit und "What happens on your iPhone stays on your iPhone" widerspricht, nicht in mein Weltbild eingebaut. Man wirft doch nicht seinen größten Wettbewerbsvorteil gegen die Konkurrenz weg, weil man plötzlich ein Herz für Kinder entdeckt hat. Zumindest nicht als Unternehmen, das auf Gewinn aus ist.
 

AndiEh

Friedberger Bohnapfel
Registriert
11.07.21
Beiträge
536
Anders krieg ich für mich diese Ankündigung von Apple, die ja wirklich extrem den bisherigen Aussagen zur Datensicherheit und "What happens on your iPhone stays on your iPhone" widerspricht, nicht in mein Weltbild eingebaut.

Tja, das war eigentlich mit ein Grund, warum ich auf das iPhone umsteigen wollte und bereit war, die Einschränkungen des iPhones gegenüber der Android Welt zu akzeptieren.
Ob ich meine Entscheidung noch mal überdenke.......? Wir werden sehen.

Gruß
Andi
 

FuAn

Moderator
AT Moderation
Registriert
18.07.12
Beiträge
2.287
Tja, das war eigentlich mit ein Grund, warum ich auf das iPhone umsteigen wollte und bereit war, die Einschränkungen des iPhones gegenüber der Android Welt zu akzeptieren.
Ob ich meine Entscheidung noch mal überdenke.......? Wir werden sehen.

Gruß
Andi

Vielleicht dreht sich der Vorteil irgendwann zu Gunsten offener Systeme, die dann im speziellen Security Distributionen gehärtet werden.
CopperheadOS oder GrapheneOS sind im android lager ja schonmal entsprechende Ansätze für Pixel phones…

GSMK‘s cryptophone läuft auch auf android…
 
  • Like
Reaktionen: Ducatisti