• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Missbrauchspotential: Zwei Bilder ein Hashwert

SomeUser

Ingol
Registriert
09.02.11
Beiträge
2.084
Ja, das war nur ein zynisches Zitat, was man sich hier im Forum ständig anhören muss. Auch aus Redaktionskreisen. Weil man sich vermutlich nicht wirklich mit der Technik und den bevorstehenden Problemen beschäftigen möchte oder Apple nen Freibrief ausstellt.


Ah, ok, sorry. Aber tröste dich: Es bezog sich natürlich nur auf die Aussage, nicht auf die Person - das wird ja gerne in einen Topf geworfen. :)
 
  • Like
Reaktionen: MichaNbg

cryptosteve

Süssreinette (Aargauer Herrenapfel)
Registriert
16.04.17
Beiträge
410
Ich kann an der Stelle vor dieser inhaltlichen Auseinandersetzung mit all den angeblichen Dingen, die es soviel weniger schlimm machten, warnen. Es geht nicht um die Möglichkeiten, die Apple angeblich unterbindet und um Untersuchungen, ob das technisch stimmt.
Ich habe mich bisher zum Thema nicht großartig geäußert, muss jetzt aber doch mal anmerken, dass das für mich tatsächlich ein Grund wäre, die Apple-Geräte komplett an den Nagel zu hängen.

Ich bin vor zwei Jahren von Linux auf MacOS gewechselt und bin eigentlich total glücklich mit dem Wechsel. Die Hardware ist super, die Software funktioniert zu meist gut ... aber ich tue mich historisch bedingt schon mit der closed source Geschichte nicht ganz leicht, und wenn jetzt noch unkontrolliertes Scanning auf den Geräten hinzukommt .. das wäre zuviel für mein Misstrauen. Dann wechsel ich halt wieder auf ein Thinkpad mit Linux. Nur für Tabet/Phone fiele mir keine richtige Alternative ein, aber darum kümmere ich mich dann.
Das Thema ist IMHO nichtmal die Diskussion wert. Es wurde von Anfang an gesagt, dass bei nem Treffer das Bild erst angeguckt wird, ob's überhaupt strafbar ist oder n zufälliger Match weil der Hash halt derselbe ist.
Wenn sich jemand eines meiner Bilder, von dem ich mutwillig entschieden habe, es nirgendwo hochzuladen, anguckt, dann finde ich das sehr wohl diskussionswürdig. Und zwar schwer diskussionwürdig.
 

Carcharoth

Roter Seeapfel
Registriert
02.07.12
Beiträge
2.109
Wenn sich jemand eines meiner Bilder, von dem ich mutwillig entschieden habe, es nirgendwo hochzuladen, anguckt, dann finde ich das sehr wohl diskussionswürdig. Und zwar schwer diskussionwürdig.

Gratuliere. Du hast den Bezug falsch verstanden.
Ich bezog mich rein auf das Thema des doppelten Hashes.
 

cryptosteve

Süssreinette (Aargauer Herrenapfel)
Registriert
16.04.17
Beiträge
410
Rein bei doppelten Hashes bräuchte sich keiner irgendwas angucken. Die sind eben gleich oder auch nicht. Dein Beitrag war schon eindeutig und nicht falsch zu verstehen.
 

Carcharoth

Roter Seeapfel
Registriert
02.07.12
Beiträge
2.109
Rein bei doppelten Hashes bräuchte sich keiner irgendwas angucken. Die sind eben gleich oder auch nicht. Dein Beitrag war schon eindeutig und nicht falsch zu verstehen.
🙄 🤦‍♂️


Lies halt noch den weiter unten. Vielleicht verstehst du es dann. Kontext ist wichtig.
 

Cohni

Ananas Reinette
Unvergessen
Registriert
04.08.11
Beiträge
6.206
Ich habe ja schon in dem andern Thread dargestellt, dass es absehen von der ganzen (berechtigten) Aufregung um das Grundsätzliche, äußerst fraglich scheint, ob das Mittel den hier erklärten Zweck handwerklich überhaupt erfüllen kann.
Ich mag das entschieden bezweifeln.

Mehr als eine Verdrängung der "digitalen Idioten" in die deutlich professioneller betriebenen verdeckten Bereiche des Internets wird es nicht geben.

Natürlich werden ein paar Fälle aufploppen und dann sicher medienwirksam ausgeschlachtet.
Aber mit jeder Ausschlachtung verringert sich die Anzahl der ohnehin wenigen Dumpfbacken und das Problem scheint gelöst.
Schöne reine Apple-Welt, die mit der Realität da draußen wenig zu tun hat.

Nicht mal ansatzweise wird da etwas gelöst, denn nennenswert verringert wird gar nichts sein, sondern einfach nur an anderer Stelle munter und unbedrängter weiterlaufen können.

Was schon befürchtet wurde, ich aber nicht als Gefahr sehe, sind irgendwelche Falschverdächtigungen. Da es nicht nur um ein einzelnes Bild geht und ein Mitarbeiter darüber schaut, dürfte dies ausgeschlossen sein.

Aber...und hier kräuseln sich mir irgendwie die Haare. Erstens sitzt dann dort ein ziviler Mensch und nimmt eigentlich eine strafrechtliche Bewertung vor. Okay, das können entsprechend qualifizierte Zivilisten wie Anwälte usw. durchaus leisten. Aber wird das Personal diesen notwendigen Ansprüchen genügen? Das ist alles so intransparent.

Zweitens könnten die "Experten" natürlich auch "Experten" im Sinne eines Unterdrückungsstaates sein und die entsprechend gewünschten Bilder herauspicken...haben wir schon tausendmal gesagt. Diese Gefahr kann man leider nicht beiseite reden, auch nicht als Apple-Fanman (-Fanboy ist mir langsam zu infantil ;) ), wie ich es einer bin.

Ich weiß nicht, was Apple geritten hat. Und dann diese Kommunikation...
 
  • Like
Reaktionen: paul.mbp

Mitglied 246615

Gast
Was schon befürchtet wurde, ich aber nicht als Gefahr sehe, sind irgendwelche Falschverdächtigungen.
Verdächtigt Apple nicht bereits durch Einführung einer ansatzlosen Massenüberwachung alle ihre Nutzer? Sind dann nicht alle, bei denen keine entsprechenden Bilder gefunden falsch verdächtigt? Aber auch dann wird weiter überwacht, denn man könnte ja noch straffällig werden.

Erstens sitzt dann dort ein ziviler Mensch und nimmt eigentlich eine strafrechtliche Bewertung vor.
Dazu habe ich keine Bedenken. Wenn ich irgendeine Straftat melde, habe ich doch auch schon eine Bewertung vorgenommen.

Ich weiß nicht, was Apple geritten hat. Und dann diese Kommunikation...
Deshalb vermute ich mehr dahinter als uns erzählt wird.
 
Zuletzt bearbeitet von einem Moderator:

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.888
Deshalb vermute ich mehr dahinter als uns erzählt wird.

Vor allem dem schließe ich mich an ,... Ich hoffe der zweite Teil der Geschichte ist ein guter und kein schlechter. Mögliche Ideen für beide Varianten:

Schlecht: Druck einer Regierung ,...
Gut: Das ist der Tradeoff den wir ggf. In Kauf nehmen müssen, um tatsächlich endlich verschlüsselte iCloud zu kriegen ,...

Denn die verschlüsselte iCloud ist ja auch immer noch ausständig und da sind ja sehr sehr viele Behörden kein großer Fan von. Damit wäre CSAM zwar immer noch nicht okay aber leichter hinnehmbar, für mich zumindest. Logisch wäre es fast - denn die Analyse am Gerät, von Fotos die in die Cloud wandern, macht keinen Sinn wenn sie es in der Cloud sowieso immer schon tun. Wozu doppelt moppeln? Spricht ja fast dafür, dass sie es in der Cloud nicht mehr tun (können). Wenn dem aber wirklich so wäre, dann hätten sie es halt jetzt auch gleich ankündigen können / müssen.

Dass das nicht so einfach durchgeht muss ihnen ja hoffentlich klar gewesen sein. Da MUSS es irgend eine Not geben. Welche ist das? Oder ist das Reality Distortion Field wirklich schon so groß, dass ihnen das nicht klar war ...
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Wenn ich das richtig sehe, wurde bei Github eine ziemlich schlechte, ganz offensichtlich nicht kollisionsresistente Funktion benutzt, die Hashwerte mit gerade mal 96 Bit erzeugt. Man kann wohl davon ausgehen, dass CSAM auf einer kryptographisch sicheren Funktion basiert.
Man setzt hier keine kryptografischen Hashes ein, sondern perceptual Hashes.
Mit kryptografischen Hashes kann man nur exakt gleiche Dateien finden. Bilder aber können in verschiedenen Auflösungen, leichten Farbanpassungen und Formaten vorliegen. Man muss also den Hash für einen Bildinhalt so berechnen, dass ähnliche Bilder ähnliche Hashes ergeben. Und genau darin liegt hier dann das Problem: Hier kann man recht einfach kollidierende Hashes erzeugen. Und je nachdem, wie groß die gewählte Hamming-Distance beim Abgleich ist, kommen da jede Menge False Positives bei der Suche heraus.

(Wir haben solch eine Funktion zum Erkennen von Bildduplikaten in einer unserer Softwareprodukte, daher kenne ich mich hier ein wenig aus).
 
  • Like
Reaktionen: giesbert

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.024
Gut: Das ist der Tradeoff den wir ggf. In Kauf nehmen müssen, um tatsächlich endlich verschlüsselte iCloud zu kriegen ,...
gefährlicher Trade. Denn wenn das so funktioniert dann werden auf absehbare Zeit nicht nur Bilder gescannt. Und dann stellt sich die Frage, welchen Sinn die Umstellung auf E2E noch macht, wenn vorher schon bekannt ist, was drin steckt und im Falle des Falles auch nicht verschlüsselt sondern direkt im Klartext zur weiteren Kontrolle ausgeweitet
Wird?
 

Andreas Vogel

Redakteur
AT Redaktion
Registriert
10.12.08
Beiträge
2.246
Ich zäume das Thema bewußt etwas anders auf:

Apples Eingriff in die Privatsphäre folgt dem schleichenden Trend zum "betreuten Bürger".

Was meint das?

Wo früher Eigenverantwortlichkeit sowohl im Handeln als auch der Folgen selbstverständlich war, greift seit rund 25 Jahren der Staat immer mehr als "Betreuer" ein. Und damit meine ich nicht den deutschen Staat, sondern grundsätzlich die westl. Welt!
Ob es kleinteilige Verordnungen im Straßenverkehr, in der präventiven Gefährdungsabwehr oder im Gesundheitsbereich sind, das Leben wird zunehmend auf gesetzlich normiertes "Normal" formatiert. Einerseits ein massives Minus an individueller Freiheit, andererseits schreit "Volkes Stimme" nach dem Staat beispielsweise bei Flutkatastrophen oä.

Ich halte beides für falsch. Einerseits hat "Staat" sich aus dem individuellen Freiheitsraum herauszuhalten, andererseits ist "Staat" auch nicht der (finanzielle) Notretter. Klingt hart, sind aber die beiden Seiten der Freiheitsmedallie.

Kurz: Staat als Vollkaskoversicherung heißt Unfreiheit des Einzelnen.

Soviel vorweg.

Exakt in diesem Geiste ist Apples "Kinderpornoschutz" zu sehen. Klar ist Apple kein Staat (ökonomisch sicherlich schon;), aber ein supranationaler Katalysator neoliberalen Konsums.
Die Verfolgung von widerlichen Straftätern im Bereich Kinderporno ist staatliche Kernaufgabe. Diese basiert auf der Unschuldsvermutung und schlägt durch Beweisführung in Straftat um. Und ist immer einzelfallgetrieben.
Ausdruck o.g. Vollkaskomentalität ist die partielle Preisgabe des Rechtstaatsprinzips zugunsten des Generalverdachts. "Bürger, beweise dass du unschuldig bist" war der Paradigmenwechsel infolge 9.11. Exakt in diesem Geist des "precrime" steht Apples Vorstoß.

...und er wird Erfolg haben. Denn Freiheit, das hat die Geschichte gelehrt, wird gerne für Sicherheit (aka Vollkasko) Preis gegeben... aber für ein superduppa 120 Hz Display macht man das gern mal🙈
... nicht nur um ein einzelnes Bild geht und ein Mitarbeiter darüber schaut, dürfte dies ausgeschlossen sein.
äh... NO! Sir!
Diese Mitarbeiter werden von Zeitarbeitsunternehmen für wenig Lohn und viel Druck extern zugeliefert. Da wird es ein Bonussystem etc. geben, das "Treffer" und Volumen belohnt. Qualitativ sehe ich da ein massives Problem!
 
Zuletzt bearbeitet:
  • Like
Reaktionen: paul.mbp

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.888
gefährlicher Trade. Denn wenn das so funktioniert dann werden auf absehbare Zeit nicht nur Bilder gescannt. Und dann stellt sich die Frage, welchen Sinn die Umstellung auf E2E noch macht, wenn vorher schon bekannt ist, was drin steckt und im Falle des Falles auch nicht verschlüsselt sondern direkt im Klartext zur weiteren Kontrolle ausgeweitet
Wird?

Klar ist der Trade gefährlich und immer noch fragwürdig, aber einer den ich gehen würde persönlich. Momentan hat er einfach keinen Sinn. Sie scannen Fotos die in die Cloud gehen dann noch mal vorab am Gerät, obwohl sies in der Cloud auch tun? Wenn der Trade "der wirklich krass harte Mist wird on Device gemacht" ist kann ich damit gut leben - damit spart man sich nämlich auf der anderen Seite, dass sie wegen jeden Mist die iCloud Daten raus geben - weil sie das ja nicht können. Jaja, wehret den Anfängen, aber am Ende tausche ich Kinderporno-Schutz on Device gegen Kinderporno-und-viel-mehr-Scanning in der iCloud. Klingt FÜR MICH wie ein Gewinn. Dass man die Liste dann ausweiten kann ,... ja eh ,... aber demokratische Strukturen gibt es dennoch immer noch. Es werden ja nur die Fotos gescannt die in die Cloud gehen und wenn iCloud Fotos aus ist. Wenn sie Demokratie mal abschaffen dann muss ich die Cloud so oder so ausschalten und bins in beiden Fällen gleich los ,...
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.024
Klar ist der Trade gefährlich und immer noch fragwürdig, aber einer den ich gehen würde persönlich. Momentan hat er einfach keinen Sinn. Sie scannen Fotos die in die Cloud gehen dann noch mal vorab am Gerät, obwohl sies in der Cloud auch tun? Wenn der Trade "der wirklich krass harte Mist wird on Device gemacht" ist kann ich damit gut leben - damit spart man sich nämlich auf der anderen Seite, dass sie wegen jeden Mist die iCloud Daten raus geben - weil sie das ja nicht können. Jaja, wehret den Anfängen, aber am Ende tausche ich Kinderporno-Schutz on Device gegen Kinderporno-und-viel-mehr-Scanning in der iCloud. Klingt FÜR MICH wie ein Gewinn. Dass man die Liste dann ausweiten kann ,... ja eh ,... aber demokratische Strukturen gibt es dennoch immer noch. Es werden ja nur die Fotos gescannt die in die Cloud gehen und wenn iCloud Fotos aus ist. Wenn sie Demokratie mal abschaffen dann muss ich die Cloud so oder so ausschalten und bins in beiden Fällen gleich los ,...
Na schauen wir mal, ob sie iCloud Drive endlich verschlüsseln, nur weil sie jetzt Bilder auf dem decive scannen. Die Behörden die bislang auf Apple eingewirkt haben, iCloud Drive nicht zu Verschlüssen werden eher weniger das jetztige Ziel im Sinn haben sondern wollen im Zweifel an andere Daten ran.

Von daher … dieser gewünschte Kuhhandel wirkt auf mich eher wie ein verzweifelter Strohhalm, an den man sich klammert, dass doch noch was gutes bei raus kommen könnte.

Schauen wir mal.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.888
Von daher … dieser gewünschte Kuhhandel wirkt auf mich eher wie ein verzweifelter Strohhalm, an den man sich klammert, dass doch noch was gutes bei raus kommen könnte.

Schauen wir mal.

Ist es, keine Sorge, wir wissen ja noch nichts. Und die Kommunikation ist sehr schlecht gemacht momentan, egal wo es drauf hinaus läuft.

Ich stell mir seit dem der Mist vor zwei Wochen los ging nur eine Frage. Die scannen dann doppelt. Die brechen mit einem riesen Paradigma das sie seit Jahren im Marketing ausnutzen. Was am iPhone passiert bleibt am iPhone - bis man es in die Cloud lädt, dann ist sowieso Wilder Westen. Wofür? Warum das Ganze? Da muss doch irgendwas dahinter sein.
 

paul.mbp

Sternapfel
Registriert
20.06.09
Beiträge
4.968
Ja, das ist die Frage die ich mir auch stelle.

Wieso lokal scannen wenn sie es auch auf dem Server können?
 
  • Like
Reaktionen: ottomane

staettler

Juwel aus Kirchwerder
Registriert
04.06.12
Beiträge
6.580
Weil sich dadurch die Möglichkeit ergibt, die ganze iCloud E2E zu verschlüsseln?
 

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.397
Oder um einfach Rechenleistung zu sparen. Da kommt vielleicht einiges an Bildern zusammen in der iCloud.
 

AndiEh

Friedberger Bohnapfel
Registriert
11.07.21
Beiträge
536
2. Ähnliche Tendenzen gibt es doch schon im Versicherungsbereich mit den sog. Telematik-Versicherungen. Siehe zum Beispiel hiier: https://www.vhv.de/versicherungen/kfz-versicherung/pkw-telematik
Lass dich überwachen, bezahle dafür weniger. Hier findet, analog zur Vereinbarung mit Apple, halt eine Vereinbarung mit dem Versicherer auf fortwährende Überwachung statt.


Und auch dies sollte verboten werden. Auch dies ist eine Überwachung, deren Konsequenzen der Kunden in alle Regel nicht überblicken kann.

Gruß
Andi