• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Apple prüft Fotos künftig auf Kinderpornographie

Mitglied 87291

Gast
@alex34653

Glaubst du ernsthaft das irgendein krimineller seine Kinderporno-Sammlung oder sonstige Dinge in Apples Cloud schiebt? Wohlwissend das Backups nicht verschlüsselt werden? Wohlwissend das verschiedene Organisationen jetzt schon vollen Zugriff auf entsprechende Daten haben wie z.B. China auf alle Daten chinesischer User?
 
  • Like
Reaktionen: walnussbaer

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.160
@alex34653

Glaubst du ernsthaft das irgendein krimineller seine Kinderporno-Sammlung oder sonstige Dinge in Apples Cloud schiebt? Wohlwissend das Backups nicht verschlüsselt werden? Wohlwissend das verschiedene Organisationen jetzt schon vollen Zugriff auf entsprechende Daten haben wie z.B. China auf alle Daten chinesischer User?
Tausende Kriminelle sind auf eine Fake-App der Ermittlungsbehörden reingefallen. Insofern: Ja, Dumme gibt es immer und überall.
 
  • Like
Reaktionen: Mure77

alex34653

Kaiserapfel
Registriert
15.09.08
Beiträge
1.726
Absolut, mehr als man glaubt.

Und zum Thema „iCloud/Backup“: Genau darum gehts hier ja nicht, sondern um das Erkennen am Gerät direkt. Und ja, ich glaube nicht nur sondern weiß, dass Kriminelle sowas auf Geräten speichern.

Eine „Datenschutz“-Offensive mit VPN könnte natürlich leicht dazu führen dass sie dann vermehrt auf Apple-Geräte (ev eben ohne Cloud-Backup) setzen.
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.022
Sicherlich nicht nur daher, teilweise aber schon.
Och, es ist sehr klar, was da passiert. Das hat glaub auch (fast) jeder verstanden.

Wo es wirklich an Verständnis fehlt ist, welche Tragweite diese Einführung hat. Und dass so etwas niemals zum Schutze von Kindern passiert.


Sind wir doch mal ehrlich und realistisch. Konsumenten dieses verabscheuungswürdigen Materials speichern so etwas weder am Handy noch in iCloud. Und wer es doch tut ist so dämlich, dass ihn die Behörden innerhalb kürzester Zeit so oder so auf die Schliche kommen. Die fallen dann auch auf Fake Apps, Cold Calls und sonstiges rein. Um die zu erwischen musst du nicht die 99,99999% der restlichen Bevölkerung überwachen.

Das ist ungefähr so haarsträubend wie der Versuch der Öffentlichkeit zu erzählen, böse Terroristen benutzen WhatsApp um sich für Pläne abzustimmen und deshalb muss man diese Apps ganz dringend staatlich entschlüsseln können und jederzeit überwachen.

Wer das glaubt, ist arg naiv.
 

jensche

Korbinians Apfel
Registriert
27.10.04
Beiträge
6.960
ich hätte nie gedacht dass Apple so einen 180Grad Wendung in Sachen Privatsphäre macht.

Privacy is a Fundamental Human Right
What happens on your iPhone stays on your iPhone.

Noch Häuchlerischer gehts kaum noch.
Alle Bilder werden schön gehasht und in die Cloud gespielt. Dabei macht sogar alles das iPhone Lokal dank den starken Machine Learning Eigenschaften des iPhones. Da braucht nicht mal mehr Externe Rechner die das Hashen müssen.

Gerne erinnere ich da an die Rose Listen des Nazis. Ein Sammlung von Homosexuellen in Deutschland.

Sobald die Kinderpornofilter auf allen Geräten aktiviert ist, kann die NSA ihre Gesichtserkennungsfunktionen nutzen, um jedes Gesicht auf jedem Gerät zu identifizieren. Das Ziel ist die automatische Analyse aller Bilder und Videos, um Personen von Interesse zu finden und zu verfolgen. Sie verwandeln euch alle in Bienenstockspione.

Ganz schlimme Richtung die da Apple geht. Vor einigen Jahren konnte das FBI keine Daten kriegen. Jetzt bekommen die NSA vollen Zugriff auf alle Bilder welche lokal auf jedem iPhone gespeichert ist.

Apples Privacy Paradox.
Apple wird zur neuen Stasi.

Traurig das Apple nun doch volle Backdoors öffnet und es noch Stolz kommuniziert.

 
Zuletzt bearbeitet:

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.051
Jetzt bekommen die NSA vollen Zugriff auf alle Bilder welche lokal auf jedem iPhone gespeichert ist.

Genau das ist das Problem, dass viele denken, sie bekämen Zugriff.
Wo nimmst Du denn die Vermutung her, in Zusammenhang mit dem Thema hier?
Denn das ist ja gar nicht der Fall und macht Deinen Kommentar / deine Angst obsolet.
Apple wird zur neuen Stasi.

Was für einen Quark Du da schriebst… 😉
Das, was Du schreibst, ist ja genau das, was passiert: viele haben keine Ahnung, was das ist und meinen, dass Apple oder sonst wer jetzt vollen Zugriff auf die Fotos hat.

Unabhängig der Wertung über das Thema, stimmt es so einfach nicht.
 

jensche

Korbinians Apfel
Registriert
27.10.04
Beiträge
6.960
Denn das ist ja gar nicht der Fall und macht Deinen Kommentar / deine Angst obsolet.

Warum ist das nicht der Fall?
Was gibt die die Sicherheit, dass es bei dem bleiben wird?
Anfangs ist es Kinderpornografie. Dann merken alle Regierungen "Apple interessiert sich nicht für Privatsphäre", lass uns das per Gesetz noch ausweiten: Hashabgleich mit Bildern von Waffen, mit T-Shirts die verbotene Zeichen drauf haben, Screenshots abgleich usw. usw.
Einfach mal sammeln und kategorisieren. Das ist nur der Afang... wenn erst mal die Regierungen sehen was alles möglich ist, und Apple es einfach so macht ohne Wiederstand... dann viel Spass. Da waren die Rosa Listen und die Stasi ein Kindergeburtstag und Orwells 1984 eine lustige Gutnachtgeschichte.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.870
Ich finde diverse Vergleiche in diesem Tread unheimlich schlecht - denn nicht alles was hinkt ist ein Vergleich ;) Apple liefert keine Menschen dem Genozid aus, oder sonst etwas.

Auf der anderen Seite muss ich gestehen ,... Der Schritt den Apple hier angekündigt hat macht mir sehr erhebliche Bedenken. Das übliche "Wer nix zum Vergeben hat" Argument gilt halt auch einfach nicht. Heute kontrolliert Person A dieses Hashes - und vielleicht ist diese Person okay - aber wie schauts morgen aus und wer entscheidet dann was für Hashes aka Inhalte böse sind? Wenn du ein System öffnest, und tatsächlich deine eigene Spyware machst, machst du es angreifbar. Das ist genau das was Apple per Definition nie wollte. Dieser Scanner ist absolut gegen alles was sie immer predigten ,...

Ich frag mich nur ehrlich was die Alternative ist, und überlege tatsächlich, ob ich sowas noch "dulden" möchte. Vielleicht doch Zeit irgend ein immerhin offenes System zu kaufen wo ich selbst noch entscheiden kann was für Services ich wie nutzen will und welche nicht. Apple dichtet das System ab und nutzt das Monopol für Trojaner jetzt exklusiv für sich - aber ohne Limits. Schön ^^ #Not
 

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.731
Im Grunde genommen begrüße ich die Maßnahmen von Apple, denn Kinderpornographie ist abscheulich und gehört verfolgt und bestraft. Allerdings setzt Apple das irgendwie nur halbherzig um. Jemand, der seine Bilder z.B. mit einem NAS synchronisiert, dürfte das ganze Überwachungsprozedere sehr einfach umgehen können.

Und nur mal hypothetisch. Kann es passieren, dass ein völlig unverfänglich gemachtes Urlaubsbild meines eigenen Kindes - wie auch immer - auf einen CSAM-Server gelangt, weil es eben durchaus kranke Menschen sexuell reizen könnte, und dieses Bild mir dann als vermeintlichen Urheber von Kinderpornographie entgegen gehalten wird, weil ich es in der iCloud gespeichert habe?

Mal so nebenbei. Was ist eigentlich mit Videos, insbesondere solchen, die kinderpornographische Inhalte in völlig unkritschen Inhalten eingebettet haben? Und was ist mit Gewalt verherrlichenden Bildern und Videos? Man glaubt gar nicht, was sich Kinder da zum Teil per Whatsapp, Telegram oder anderen Messengern zuschicken. Eine Bekannte berichtete mal, dass ihr Sohn sich total verändert habe und immer verschlossener wurde. Bis sich dann herausstelle, dass in der Klasse solche eingebetteten Videos kursierten, in denen Menschen vor laufender Kamera geköpft oder verstümmelt wurden. Der Sohn hatte sich seinen Eltern aus Angst vor "Klassenkeile" nicht offenbart und die Videos wurden dann nur durch Zufall entdeckt. Derjenige, der die Videos verbreitete, war dann zu allem Überfluss auch noch ein Polizistensohn.
 
  • Like
Reaktionen: jensche

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.870
Sind wir doch mal ehrlich und realistisch. Konsumenten dieses verabscheuungswürdigen Materials speichern so etwas weder am Handy noch in iCloud. Und wer es doch tut ist so dämlich, dass ihn die Behörden innerhalb kürzester Zeit so oder so auf die Schliche kommen. Die fallen dann auch auf Fake Apps, Cold Calls und sonstiges rein. Um die zu erwischen musst du nicht die 99,99999% der restlichen Bevölkerung überwachen.

Da schließ ich mich nicht an, und ich finde auch dazu die Thesen in diesem Beitrag sehr spannend. Übrigens - sowas kann auch ne psychische Krankheit sein, nur ums mal zu sagen ,... ;) Oft nehmen "Täter" solche Fotos auch einfach sonst wo auf - Im Schwimmbad, irgendwo in ner Umkleide, was auch immer - das Problem ist dass die Grenze auch recht schwer ist und ich frag mich wie Apple das löst. Wenn ICH ein Foto von meinem nackten 3 jährigen Mädchen am Handy habe wie es im Garten in meinem Pool plantsch - ist das wahrscheinlich okay. Wenns der Nachbar ist und sich das zigfach ansieht und dazu sonst was macht - nicht ,... Und nun? ;)
 

jensche

Korbinians Apfel
Registriert
27.10.04
Beiträge
6.960
Apple liefert keine Menschen dem Genozid aus, oder sonst etwas.
Das wollte ich auch nicht sagen. Aber wenn man die Entwicklung z.b. der Rosa Listen anschaut, wurde einfach mal eine Liste erstellt, in dem Falle mit Homosexuellen Ende 19. Jahrhunderts, dies als präventive Verbrechensbekämpfung. Einfach eine Liste mit Leuten die nichts verbrochen haben. Dann haben sich die Gesetze geändert (Krieg usw.) und schon hatte man sauber eine Auflistung wer alles Homosexuell ist und konnte diese schön verhaften und ins KZ stecken.

Simpler gesagt: man macht eine Liste von Fotos mit Roten Shirts. in 10 Jahren sind Rote Shirts verboten und es gibt Bussen. Per Gesetz ein Hashabgleich und Apple liefert alle Leute die jemals ein rotes Shirt an hatten an die Regierung.
 

Mitglied 87291

Gast
@jensche
Bei aller berechtigter Kritik (welche ich hier ja auch breit vertrete), ist das was du schreibst halt Quatsch. Du scheinst die Technik und Vorgehensweise nicht verstanden zu haben.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.870
Einfach eine Liste mit Leuten die nichts verbrochen haben. Dann haben sich die Gesetze geändert (Krieg usw.) und schon hatte man sauber eine Auflistung wer alles Homosexuell ist und konnte diese schön verhaften und ins KZ stecken.

Ja das ist ja mein "heute ists noch gut aber was ist morgen Beispiel". Ich denke nur Holocaust Vergleiche helfen niemanden und sind meistens ein mitteleuropäisches Stilmittel um zu zeigen das was überhaupt nicht geht und ganz ganz schlimm ist. Argumente werden mit solchen Vergleichen nicht besser oder schlechter, und auch nicht mehr dramatischer. Lassen wir den mal Ruhen ;) Wehret den Anfängen gilt immer und überall, auch ohne Vergleich ;)
 
  • Like
Reaktionen: paul.mbp

jensche

Korbinians Apfel
Registriert
27.10.04
Beiträge
6.960
Du scheinst die Technik und Vorgehensweise nicht verstanden zu haben.

Mir gehts ja nicht um die Technik sondern Vollzugriff auf das Lokale Gerät. Welche Technik ist mir Piepegal und das ist auch Nebensache. Es geht da um die Sache:

Anfangs ist es Kinderpornografie. Dann merken alle Regierungen "Apple interessiert sich nicht für Privatsphäre", lass uns das per Gesetz noch ausweiten: Hashabgleich mit Bildern von Waffen, mit T-Shirts die verbotene Zeichen drauf haben, Screenshots abgleich usw. usw.
Einfach mal sammeln und kategorisieren. Das ist nur der Afang... wenn erst mal die Regierungen sehen was alles möglich ist, und Apple es einfach so macht ohne Wiederstand... dann viel Spass.

Wenns mit CSAM Content geht, warum solls nicht mit jeglichem anderen Content auch gehen?

mitteleuropäisches Stilmittel
Die Rosa Listen sind eben das Paradexemple. Und aus der Geschichte sollte man lernen.
 

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.731
...und ich frag mich wie Apple das löst...

Im Grunde genommen muss Apple da gar nichts großartig lösen. Sie liefern ja nur das Werkzeug. Der eigentliche Entscheidungsprozess läuft wohl über Dritte, die den CSAM Content erzeugen.

Allerdings sind "die Amis" (ich weiß, dass es "die Amis" in diesem Zusammenhang nicht gibt; deswegen die Anführungsstriche) hinsichtlich "sexual explicit content" ja bekanntlich ziemlich "prüde", um es mal etwas einfach auszudrücken. Umgekehrt legen sie die Latte bei Gewalt deutlich höher als wir. Oder gibt es da weltweite Standards?

Die Warnungen im Zuge der Familienfreigabe sind ja eher eine andere "Gewichtsklasse". Die sehe ich daher deutlich unkritischer.
 
Zuletzt bearbeitet:

allans1976

Eifeler Rambour
Registriert
17.06.15
Beiträge
599
.. Das ist genau das was Apple per Definition nie wollte. Dieser Scanner ist absolut gegen alles was sie immer predigten , ...

Das ist das Kernproblem. Vor allem in der Außenwirkung.

So ehrenwert der Anlass auch sein mag, Apple flankiert damit seinen eigenen mühsam entwickelten 'USP Privacy'.
Oder sie haben ein Kommunikationsproblem mit ihren Kunden, das sie schnell auflösen sollten.