• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.060
Genau wie die heiße Luft, die hier von Dir kommt. Deckt sich mit dem vergangenen Verhalten.
 

Benutzer 250503

Gast
Genau wie die heiße Luft, die hier von Dir kommt. Deckt sich mit dem vergangenen Verhalten.
Du hast nach gut 15000 Beiträgen nicht gelernt mit Andersdenkenden umzugehen und wirst ab erreichen des Sweetspots untergriffig?

Soll so sein👍
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.164
Die Bilder der eigenen Kinder wird die KI nicht von anderen unterscheiden können und somit wird es eine Flut an falschen Meldungen geben und das geht einfach in die falsche Richtung.
Wenn sich deine Bilder deiner Kinder in einer Datenbank mit kinderpronographischen Inhalten befinden, hast du sowieso ganz andere Probleme.
 
  • Angry
Reaktionen: Benutzer 250503

Benutzer 250503

Gast
Wenn sich deine Bilder deiner Kinder in einer Datenbank mit kinderpronographischen Inhalten befinden, hast du sowieso ganz andere Probleme.
Weist du diese Technologie funktioniert? Es hat doch das eine mit dem anderen nichts zu tun.
Es werden zwei Hash Werte miteinander verglichen und da müssen deine Kinderfotos in keiner Datenbank liegen.
Im Gegenteil es wurden schon mal Hunde und andere Inhalte im Probelauf der CSAM Hash Vergleiche als Auffällig ausgewertet.
 

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.060
Du hast nach gut 15000 Beiträgen nicht gelernt mit Andersdenkenden umzugehen und wirst ab erreichen des Sweetspots untergriffig?

Soll so sein👍
Andersdenken ist völlig ok. Aber haltlose und nicht belegte Aussagen zu verbreiten, verpackt in teilweise denkanstoßgebenden Floskeln, ist sehr subtil und bestätigt eine Richtung, der man ebenso nur noch subtil begegnen kann. Das zeigt sich hier, und in fast allen anderen Beiträgen von Dir.
 
  • Haha
Reaktionen: Benutzer 250503

Benutzer 250503

Gast
und was unterscheidet es nun von deiner Denkweise. Alles was Apple sagt stimmt unreflektiert hingenommen? Na sag mal geht's noch?
Mach dich mal schlau wie oft Apple gesagtes nicht eingehalten oder verwässert hat und melde wenn du kannst per PM. Wenn Du nicht wirklich Jubelperserartig an die Sache heran gehst wird es dir so oder so wie Schuppen von den Augen fallen. Sei nicht traurig deswegen, mir erging es ebenso.

Wenn nicht, dann Sorry aber das war es dann wirklich. Bleib Du eben weiter in deiner Filterblase, überlese meine Beiträge sofern es dir möglich ist, was zu bezweifeln wäre wie man lesen durfte.
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.024
Wenn sich deine Bilder deiner Kinder in einer Datenbank mit kinderpronographischen Inhalten befinden, hast du sowieso ganz andere Probleme.
Apples Ansatz war, (unter anderem) On Device Scanning mit Bilderkennung. Nicht (nur) Prüfung eines Hashes gegen eine Hash-Datenbank.

Sorgen von Benutzern, dass heute vollkommen normale Bilder wie sie seit Jahrzehnten in Millionen von Familienalben liegen, irgendwann als etwas klassifiziert und gemeldet werden, was sie nicht sind, so derart schon fast boshaft zu kommentieren und - wohlwollend formuliert - "lächerlich" zu machen, zeigt eigentlich, dass @Jan Gruber s Idee, einen Artikel dazu zu machen auch in der eigenen Redaktion für mehr Verständnis zur Thematik (was passiert und welche Risiken bestehen) sorgen könnte.
 
  • Like
Reaktionen: Benutzer 250503

Benutzer 250503

Gast
auch in der eigenen Redaktion für mehr Verständnis zur Thematik (was passiert und welche Risiken bestehen) sorgen könnte.
Absolut und wirklich bedenklich.👍 Kommt noch dazu das die CSAM Geschichte vom Tisch und dennoch seit 2015 generell forciert wird und als API sogar für Entwickler zu Verfügung steht. Wenn lokal Ausgewertet, Bewertet und erst danach Verschlüsselt wird, ist Geschichte ziemlich witzlos denn was geschieht mit der Auswertung , dem Ergebnis?
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.875
das Vertrauen in die Technik? Na sag mal Jan, dass ist doch unmittelbar Verzahnt und wenn uns die letzten Jahre eines zeigen, darauf ist ehe nicht zu vertrauen wie uns die MS Azure Geschichte zeigt. Und sie können schwören was immer sie wollen, es gibt immer einen Generalschlüssel. Was uns die Geschichte auch zeigt, dass sie allesamt immer irgendwann dabei ertappt werden Versprochenes zu Umgehen.

100%ig sicher gibt es nie, das ist mir schon klar, aber ich hab meine Apple ID und Dank ADP auch meine Cloud mit nem physischen Schlüssel auch noch geschützt. Mehr kann ich als Nutzer jetzt echt nicht machen, außer Offline leben. Insofern ja ich vertrau der Technik da ausreichend, wenn FIDO Keys dann auch noch nicht reichen dann weiß ich einfach auch nicht mehr :D Und auf meiner Icloud liegt nichts was mir (Bussiness mäßig) wichtig wäre. Das liegt dann bei Proton.

Da kann ich dir nur beipflichten wenn wir unsere aktuelle Geschichte mit dem Teichtmeister ansehen🤮

Na schau an, das so schnell jemand drauf kommt was ich bei meiner Aussage im Hinterkopf hatte, dachte ich auch nicht. Ja als Österreicher hätte man gerade wieder nen durchaus guten Grund für CSAM Scans ... Und das Thema, inklusive Scans, ist massiv in den Medien dieser Tage. Natürlich zu recht, aber das spaltet gerade wiedermal "richtig schön" die Gesellschaft. Da war der Rammstein-Dödel ein Witz dagegen. Letztes Statement dazu, bitte nicht Richtung Treichtmeister und Rammstein hier diskutieren :D
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.164
Weist du diese Technologie funktioniert?
Ja.

Im Gegenteil es wurden schon mal Hunde und andere Inhalte im Probelauf der CSAM Hash Vergleiche als Auffällig ausgewertet.
Ja, das ist theoretisch möglich. Aber was hat das jetzt mit den eigenen Kinderfotos zu tun, und dass man Angst hat dass Nacktaufnahmen dann plötzlich als problematisch vom System erkannt werden? Genau: Nichts.

Danke, Apples Ansatz ist mir bekannt.
 
  • Like
Reaktionen: Sequoia

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.164
Das macht deinen Post dann nur umso schlimmer.
Da du es nicht bleiben lassen kannst, gerne ausführlicher. Ich habe mich auf folgenden Beitrag bezogen:

Ich war und bin immer noch ein Gegner des automatischen scannes von Bildern, ganz einfach weil die Technik den Unterschied zwischen harmlos und strafbar nicht kennt. Die Bilder der eigenen Kinder wird die KI nicht von anderen unterscheiden können und somit wird es eine Flut an falschen Meldungen geben und das geht einfach in die falsche Richtung.

Darin heißt es, dass die KI bei der Erkennung von Bildern nicht zwischen harmlos und strafbar unterscheiden hätte können und es eine Flut von falschen Meldungen gegeben hätte.

Apple hätte CSAM auf zweierlei Art analysiert:
  1. Hashes aus in iCloud hochgeladenen Fotos hätten mit Hashes von bekannten, kinderpornographischen Materialien verglichen werden sollen.
  2. Eltern hätten auf Geräten ihrer Kinder einen Filter aktivieren können, damit Nacktfotos in der Nachrichten-App per Bilderkennung erkannt werden, und Kinder vor dem Öffnen gewarnt werden bzw. die Eltern informiert werden.
Jetzt mal abgesehen davon, dass es theoretisch in seltenen Fällen die Möglichkeit gäbe, dass es beim Vergleich von Hashes zu False-Positives kommt (die aber nichts damit zu tun haben, ob das False-Positive ein Kinderfoto ist) - inwiefern hätte es mit den Plänen von Apple zu einer Flut an falschen Meldungen kommen sollen (sofern die Kinderfotos sich nicht in einer Datenbank mit kinderpornographischen Inhalten befinden)?

Ich freue mich auf eine sinnvolle Antwort von dir, ohne Anschuldigungen, Beleidigungen und Anfeindungen.
 
Zuletzt bearbeitet:

Benutzer 250503

Gast
Ja, das ist theoretisch möglich. Aber was hat das jetzt mit den eigenen Kinderfotos zu tun, und dass man Angst hat dass Nacktaufnahmen dann plötzlich als problematisch vom System erkannt werden? Genau: Nichts.
ned böse sein aber wenn Du mit nem Hundefoto einen Treffer landen würdest, führt sich das System selbst ad absurdum. Gar nicht daran zu denken wenn deine Kinder so du welche haben solltest auf den Index kommen weil der Hash anschlägt, dass Foto an Apple gesandt bewertet wird und bei Unschlüssigkeit an die Behörden weitergeleitet werden würde.:cool:
Nochmals das hat nichts mit CSAM zu tun sondern ist von der Technologie her extrem Problematisch denn auch FotoDNA hat gewaltig daneben gehauen wie wir lesen durften und trotz Klarstellung seitens der Behörde bleibt das Konto gesperrt.
Letztes Statement dazu, bitte nicht Richtung Treichtmeister und Rammstein hier diskutieren :D
mit Sicherheit nicht aber was fix ist, via CSAM wäre das tun nicht aufgeflogen denn das Smartphone war nicht involviert. Die werden durch ganz andere Umstände und leider viel zu wenig ertappt und verurteilt. Off
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.024
Da du es nicht bleiben lassen kannst

Ich freue mich auf eine sinnvolle Antwort von dir, ohne Anschuldigungen, Beleidigungen und Anfeindungen.
leg mal vor, dann schau ich's mir an, wie das so ist 👍 hat dieses mal schon mal nicht geklappt... schade


Darin heißt es, dass die KI bei der Erkennung von Bildern nicht zwischen harmlos und strafbar unterscheiden hätte können und es eine Flut von falschen Meldungen gegeben hätte.

Apple hätte CSAM auf zweierlei Art analysiert:
  1. Hashes aus in iCloud hochgeladenen Fotos hätten mit Hashes von bekannten, kinderpornographischen Materialien verglichen werden sollen.
  2. Eltern hätten auf Geräten ihrer Kinder einen Filter aktivieren können, damit Nacktfotos in der Nachrichten-App per Bilderkennung erkannt werden, und Kinder vor dem Öffnen gewarnt werden bzw. die Eltern informiert werden.
Jetzt mal abgesehen davon, dass es theoretisch in seltenen Fällen die Möglichkeit gäbe, dass es beim Vergleich von Hashes zu False-Positives kommt (die aber nichts damit zu tun haben, ob das False-Positive ein Kinderfoto ist) - inwiefern hätte es mit den Plänen von Apple zu einer Flut an falschen Meldungen kommen sollen (sofern die Kinderfotos sich nicht in einer Datenbank mit kinderpornographischen Inhalten befinden)?
Da fehlt leider der elementare Punkt, dass die Implementierung von On Device Verarbeitung und Bildinhalterkennung hier nicht halt machen würde. Wie lange würde es dauern, bis iCloud Daten nicht nur nach Hashes sondern auch nach Bildinhalt durchsucht und zentral gemeldet werden?

Da kann man jetzt noch so häufig "Aluhut!" und "Spekulation!" schreien, wie man es auch hier im Forum bei Bekanntgabe der Pläne getan hat. Es wäre de facto innerhalb kürzester Zeit - im Zweifel aufgrund von Auflagen - ausgeweitet und erweitert worden. Glaub sogar hier im Forum wurden letztes Jahr oder wann es war Artikel zu den ersten Forderungen aus Legislative und Exekutive diesbezüglich verlinkt. Technik wurde noch nicht mal implementiert und schon kam die Politik an.

Was da ist, wird genutzt. Darum geht es doch die ganze Zeit. Auch in der ursprünglichen Meldung. Weshalb sieht Apple davon ab? Zumindest laut ihrer Mitteilung weil Datenschutz und Privatsphäre für Kunden so nicht eingehalten werden könne:
“Scanning every user’s privately stored iCloud data would create new threat vectors for data thieves to find and exploit," Neuenschwander wrote. "It would also inject the potential for a slippery slope of unintended consequences. Scanning for one type of content, for instance, opens the door for bulk surveillance and could create a desire to search other encrypted messaging systems across content types.”
(Neuenschwander: Apples "Director of user privacy and child safety")
Apple Aluhutträger und Verschwörungstheoretiker?


So und jetzt kommt der nächste Kniff:
Was macht Apple nun? Sie bringen wieder ihren On Device Approach ins Spiel. Und da wird es absehbar nicht bei "ist nackt" und "ich kann's Mama melden" bleiben.

Apple maintains that, ultimately, even its own well-intentioned design could not be adequately safeguarded in practice, and that on-device nudity detections for features like Messages, FaceTime, AirDrop, and the Photo picker are safer alternatives.
On Heat Initiative's request that Apple create a CSAM reporting mechanism for users, the company told WIRED that its focus is on connecting its vulnerable or victimized users directly with local resources and law enforcement in their region

Jeder sollte sich jetzt fragen, was an "On Device Processing" so viel Privatsphäre schonender sein soll, als gleich den gesamten iCloud Space zu durchsuchen? Gar nichts. Im Gegenteil, man dringt noch tiefer und die Privatsphäre der Anwender ein und durchsucht auch Daten, die Apple niemals hätte zu Gesicht kriegen sollen.

Von "nudity detection" zu "child abuse" ist es nicht weit (Alterserkennung dazu und reicht) und vom "der Benutzer erhält die Möglichkeit, die Behörden zu informieren" zu "das System informiert die Behörden" auch nicht.

Was werden also die Lobbyistengruppen, Politiker und Behörden nun fordern? "Na wenn ihr in der Cloud nicht auf CSAM scannen wollt, aber sagt ihr könnt am Device Inhalte erkennen... weshalb bei Nudity halt machen und wieso sollte man dem Anwender überlassen, die Behörden zu informieren?"

Auch das alles hat nichts mit "Aluhut" zu tun. Das ist einfach die Realität in der wir uns bewegen und was "on device processing" so unfassbar gefährlich für die Gesellschaft macht.


In den ersten Diskussionen hier wurde jeder Kritiker dieser Technologie schon nahezu beschimpft und als Verschwörungstheoretiker gebrandmarkt und die üblichen "ich fresse Apple alles aus der Hand"-Fanboys propagierten "Apple kriegt das hin, die wissen was sie tun!" - tja, Pfeifendeggl.

Meredith Whittaker schrieb:
Apple's statement is the death knell for the idea that it's possible to scan everyone's comms AND preserve privacy.

Apple has many of the best cryptographers + software eng on earth + infinite $.

If they can't, no one can. (They can't. No one can.)
 
Zuletzt bearbeitet:

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.164
Da fehlt leider der elementare Punkt, dass die Implementierung von On Device Verarbeitung und Bildinhalterkennung hier nicht halt machen würde.
Diese beiden Punkte miteinander zu vermengen, halte ich nicht für besonders sinnvoll. Denn On-Device-Bilderkennung ist schon seit Jahren auf iPhones aktiv. Und es ist im übrigen bislang nicht dazu gekommen, dass dieses Feature (…)

(…) innerhalb kürzester Zeit - im Zweifel aufgrund von Auflagen - ausgeweitet und erweitert worden (…)
(…) ist. Das kann natürlich trotzdem noch passieren, aber hängt halt nur bedingt oder genau genommen gar nicht damit zusammen, ob Apple nun auf Nacktbilder scannt oder nicht. Weil für die Technologie macht es praktisch Null Unterschied, nach welchen Bildinhalten jetzt konkret geprüft wird. Der große Aufschrei kommt interessanterweise aber dann, wenn nach Kinderpornographie und Dick Pics gescannt wird - aber nicht nach Fußbällen.

Ist es also gut, dass es solche Funktionen gibt? Teilweise ja, aufgrund des Missbrauchspotentials aber auch wieder nicht. Werden solche Funktionen in Zukunft wieder zurückgefahren? Kann ich mir ehrlicherweise kaum vorstellen. Ich befürchte eher, dass das Gegenteil der Fall ist.
 
Zuletzt bearbeitet:

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.024
Diese beiden Punkte miteinander zu vermengen, halte ich nicht für besonders sinnvoll. Denn On-Device-Bilderkennung ist schon seit Jahren auf iPhones aktiv. Und es ist im übrigen bislang nicht dazu gekommen, dass dieses Feature (…)


(…) ist. Das kann natürlich trotzdem noch passieren, aber hängt halt nur bedingt oder genau genommen gar nicht damit zusammen, ob Apple nun auf Nacktbilder scannt oder nicht. Weil für die Technologie macht es praktisch Null Unterschied, nach welchen Bildinhalten jetzt konkret geprüft wird. Der große Aufschrei kommt interessanterweise aber dann, wenn nach Kinderpornographie und Dick Picks gescannt wird - aber nicht nach Fußbällen.

Ist es also gut, dass es solche Funktionen gibt? Teilweise ja, aufgrund des Missbrauchspotentials aber auch wieder nicht. Werden solche Funktionen in Zukunft wieder zurückgefahren? Kann ich mir ehrlicherweise kaum vorstellen. Ich befürchte eher, dass das Gegenteil der Fall ist.
Man könnte jetzt trefflich darüber spekulieren, weshalb Apple sein On Device Processing in der Antwort an die Lobbygruppen so herausgestellt hat und weshalb sie das für sinnvoller halten.

Eine mögliche Lesart: durch On Device Scanning stellen sie entsprechende Technologie bereit, alle Anforderungen zu erfüllen, können selbst aber den Anwendern weiterhin glaubhaft versichern, dass sie selbst keinerlei Kenntnisse über Inhalt und Art ihrer Daten erlangen.
(Der "besserer Datenschutz"-Aspekt würde also nur gegenüber Apple zählen, die ihr Wissen auf Null zusammenschrumpfen, jedoch ohne Behörden zu verärgern)



Passend dazu biegen wir an diesem Punkt mal kurz ab und schauen nach London. Dort hat man gerade verkündet, dass Messenger-Inhalte (etc.) nicht zentral aufgebrochen werden sollen ("vorerst!" - London denkt gar nicht daran, den Gesetzestext wieder zu entschärfen, das behalten sie sich schön in der Hinterhand). Stattdessen müssen die Behörden nun aber durchsetzen, dass "vorhandene Technologie" eingesetzt werden muss, bestimmte Inhalte zu finden:



Messenger wie WhatsApp und Signal sollen darüber verschickte Inhalte nur nach gesetzeswidrigen Inhalten durchsuchen müssen, wenn das "technisch möglich" ist.

Die für die Umsetzung der Überwachungsvorgabe zuständige Medienaufsichtsbehörde Ofcom werde angewiesen, Unternehmen nur zur Kontrolle von Inhalten anzuhalten, wenn die dafür nötige Technik existiert
Lehnen wir uns weit aus dem Fenster, wenn wir Apples On Device Processing als eine "existierende Technologie" klassifizieren, die dazu geeignet ist, "Inhalte zu kontrollieren"?

London hat dabei (vordergründig) natürlich wieder CSAM im Blick und bringt sich diesbezüglich schon mal in Stellung:
Außerdem müsse solche Technik einen Minimalstandard bezüglich der Trefferquote bei der Suche nach Darstellungen von Kindesmissbrauch einhalten und nur solche finden.
Wenn also Apples Technik auf die Vorstellungen der britischen Regierung zutrifft, wird sie demnächst zum Suchen und Melden von CSAM eingesetzt werden müssen.

Was London natürlich wiederum die Entwicklung eigener Software erspart, denn
Vor allem für Ende-zu-Ende verschlüsselte Inhalte wie die Nachrichten, die über WhatsApp, Signal oder viele andere Messenger verschickt werden, dürfte solche Technik nicht umsetzbar sein. Vorstellbar wäre lediglich eine Überwachung der Inhalte direkt auf den Endgeräten, im Prinzip wäre dort eine Spyware der Regierung nötig.
Wozu "Spyware" entwickeln und auf die Smartphones ausbringen, wenn die Hersteller die passende Technologie frei Haus an alle Anwender ab Werk ausliefert?

Natürlich Spekulation und Interpretation. Aber was spricht dagegen? Und wie wollte sich Apple aus dieser Nummer herausreden?

Frage ist jetzt, zählen wir 1 + 1 zusammen oder hoffen wir darauf, dass es anders kommt?
 
  • Like
Reaktionen: Benutzer 250503

jensche

Korbinians Apfel
Registriert
27.10.04
Beiträge
6.961
Noch näher zum China-Überwachungsstaat... CSAM bringt nichts und ausser dem Staat noch mehr Überwachung. Die EU-Verantwortlichen verbreiten da wieder enorme Falschinfos.


[Beitrag editiert - Apfeltalk]
 
Zuletzt bearbeitet von einem Moderator:
  • Wow
Reaktionen: Benutzer 250503