• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Nackt-Scanner: Umstrittene Funktion mit iOS 16 Beta 4

Blurryface

Oberösterreichischer Brünerling
Registriert
22.04.18
Beiträge
711
Wenn Jemand Nacktbilder von Kindern umherschickt, dann steckt da schon etwas Anderes hinter, denn dann ist er schon Täter.

Ich zitiere gern nochmal.
War deine Aussage. Und das ist Quark und pauschalisiert.

Du redest auch die Bedenken der anderen User hier klein. Wäre alles nur Spekulation usw.
Genau aus solchen Spekulationen heraus können erst Gefahren erkannt werden und ich finde es wichtig, alle Folgen für die Allgemeinheit zu bedenken.
 
  • Like
Reaktionen: walnussbaer

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.064
Ich zitiere gern nochmal.
War deine Aussage. Und das ist Quark und pauschalisiert.

Du redest auch die Bedenken der anderen User hier klein. Wäre alles nur Spekulation usw.
Genau aus solchen Spekulationen heraus können erst Gefahren erkannt werden und ich finde es wichtig, alle Folgen für die Allgemeinheit zu bedenken.
Das hast du aus dem Zusammenhang gerissen. Es ging nur um den Vergleich zwischen jemandem, der Waffen Bilder schickt, und jemand, der Nacktbilder schickt.
Aber eben genau darum geht es in der Einführung der KINDERSICHERUNG eines beaufsichtigten Kinderaccount ja gar nicht. Es ist kein Tool, um Pädophile zu überfuhren. Es ist ein Tool, um Kinder zu warnen. Nicht mehr, und nicht weniger.

Und ich finde, dass jede Spekulation nichts mit dem Thema zu tun hat. Sonst könnte man alles spekulativ schlecht reden.

Aktuell, nach den Gegebenheiten, wie es funktioniert (lokal ML), dass es nur als Kindersicherung, und nicht bei jedem eingeschaltet werden kann, dass die Absicht dahinter ist, Kinder (beaufsichtigter Account) zu warnen ist, finde ich es ein hervorragendes Tool.
 

Cohni

Ananas Reinette
Unvergessen
Registriert
04.08.11
Beiträge
6.206
Wenn ich nicht falsch liege, ist die Filter-Funktion ja ohnehin schon seit vielen Jahren in der Fotos-App zur Erkennung von Motiven integriert. Der Schlund zur Hölle ist also längst eröffnet...😜.

Die technischen Möglichkeiten zum Missbrauch der Funktion liegen seit einiger Zeit auf dem Tisch und wurden viellicht von dem einen oder anderen Kritiker hier schon ausgiebig genutzt.

Insofern sind meine Bedenken eigentlich schon wieder gemildert, denn wenn Missbrauch geschehen soll, wäre er längst geschehen. Ich denke mittlerweile, die Aufregung ist übertrieben. Zumal Apple ja nur das eigene Haus "sauber" halten will.

Bilder können aber über derart viele alternative Nachrichten-Apps verschickt werden, sodass freiheitsdenkende Eltern ohne Sorge den Sprösslingen andere Wege aufzeigen können.
 

smokin.shutdown

Cox Orange
Registriert
23.07.18
Beiträge
97
Ja genau @MichaNbg
Genau so klassifiziere ich Täter ein. Die unbescholtenen Eltern. Hast Du so treffend und richtig erkannt. Respekt für das investigative Denken völlig ohne Übertreibung.


Aber mal im Ernst und ohne Abwertung.
Hier wird ja so oder so in die falsche Richtung diskutiert.

Es geht nicht um Kinderp*rno.
Die Bilder werden lokal erkannt. Es geht hier um das, was ich weiter oben schon beschrieben hatte. Um ggf. unbedarfte Kinder, die von sich Nacktfotos versenden. Diese werden gewarnt. Ebenso um die Kinder, die von Fremden solche Fotos bekommen.

Es geht nicht um die Erwachsenen, die Bilder versenden.
Da frage ich mich manchmal, ob man auch wirklich liest, was gebracht wird, oder einfach nur die Überschrift und dann gleich das denken will, was es sein könnte.

Es ist Teil der Kindersicherung


Und was ist mit Frauen die keine Dickpics wollen kann man diese Funktion dafür auch nutzen? Davon habe ich jetzt nichts gelesen.
 

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.064
Ich wiederhole mich gerne zum 35sten Male:

Du hast davon nichts gelesen, weil es zur Kindersicherung eines Kinder-Apple-ID-Accounts gehört.
Leute, lest doch bitte bitte einfach mal die Berichterstattung korrekt.
 

Onslaught

Westfälische Tiefblüte
Registriert
06.03.20
Beiträge
1.069
Viele (einige) meckern hier komischerweise über die Fähigkeit der „Kindersicherung“ von Kinderaccounts auf iPhones, und führen an, dass die lokale KI das erkennen kann. Es wird befürchtet, dass das ausgeweitet wird….

Wo war der Aufschrei, als die KI vor einem Jahr lernte, eure Tiere und Pflanzen auf Bildern zu erkennen und euch das anzuzeigen?

Ihr kommt ein Jahr zu Spät mit „Hier wird das Tor zur Überwachung“ geöffnet…
Die Frage ist, wieso kommt euch also der Gedanke erst jetzt, wenn es um den Kinderschutz geht?

Als die Erkennung von Pflanzen und Tieren mit iOS 15 eingeführt wurde, hieß es „nützlich“, „endlich“ und „wurde mal Zeit“ usw.
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.030
Das ist alles eine ganz sichere Technik, zu unser aller Schutz. Und gerade für Kinder. Was soll da schon passieren?

Oh. Wait...



So ist das halt mit automatischer Motiverkennung. Da bringt dir dann auch kein menschlicher "Kontrolleur" mehr etwas. Davon abgesehen, dass die Tech Companies sowieso den Weg des geringsten Widerstands gehen. Blocken, löschen, Info weitergeben und have a nice day. Danach nie wieder Zugriff auf den Account.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: paul.mbp und access

smokin.shutdown

Cox Orange
Registriert
23.07.18
Beiträge
97
Hallo

der Link ist hinter ne Paywall. Somit kann ich den leider nicht lesen. Oder habe ich gerade ein Brett vorm Kopp.
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.030
Kurze Zusammenfassung
Hallo

der Link ist hinter ne Paywall. Somit kann ich den leider nicht lesen. Oder habe ich gerade ein Brett vorm Kopp.
Pro Monat hat jeder ein paar Artikel bei der NYT frei.

Aber hier die Kurzfassung:
 

BalthasarBux

Horneburger Pfannkuchenapfel
Registriert
25.12.19
Beiträge
1.408
Ich finds ja spannend, dass es bei Apple den tierischen Aufschrei gab und die das deswegen jetzt nicht mehr machen, bzw. nur den harmlosen Teil, es aber bei Google offensichtlich schon Einzug gehalten hat? Das hab ich komplett verpasst. Warum hat da denn niemand gemeckert?
Naja, zumindest hab ich neue Beispiele für die "Ich hab doch nichts zu verbergen"-Fraktion.
 

Onslaught

Westfälische Tiefblüte
Registriert
06.03.20
Beiträge
1.069
Warum den Thread hier benutzen, wenn es doch zum Thema CSAM diese hier gibt:



hier werden doch jetzt wieder zwei unabhängige Themen miteinander vermischt.🤷‍♂️
 

Marcel Bresink

Breuhahn
Registriert
28.05.04
Beiträge
8.597
Ich finds ja spannend, dass es bei Apple den tierischen Aufschrei gab und die das deswegen jetzt nicht mehr machen,

Von "nicht mehr machen" ist überhaupt nicht die Rede. Das CSAM-Projekt wurde in verschiedene Teilbereiche gesplittet, deren jeweilige Einführung auf unbestimmte Zeit verschoben ist.

es aber bei Google offensichtlich schon Einzug gehalten hat? Das hab ich komplett verpasst. Warum hat da denn niemand gemeckert?

Weil Google etwas völlig Normales macht: Sie prüfen Daten auf Ihre eigenen Computern im Einklang mit ihren Geschäftsbedingungen.

Apple hat etwas ganz anderes vor: Sie wollen unlöschbare Spionage-Software verdeckt im Betriebssystem unterbringen und damit fremde Computer (nämlich die aller iCloud-Kunden) durchsuchen.
 

BalthasarBux

Horneburger Pfannkuchenapfel
Registriert
25.12.19
Beiträge
1.408
Von "nicht mehr machen" ist überhaupt nicht die Rede. Das CSAM-Projekt wurde in verschiedene Teilbereiche gesplittet, deren jeweilige Einführung auf unbestimmte Zeit verschoben ist.
Ja ich weiß, da hab ich nicht exakt formuliert.
Weil Google etwas völlig Normales macht: Sie prüfen Daten auf Ihre eigenen Computern im Einklang mit ihren Geschäftsbedingungen.

Apple hat etwas ganz anderes vor: Sie wollen unlöschbare Spionage-Software verdeckt im Betriebssystem unterbringen und damit fremde Computer (nämlich die aller iCloud-Kunden) durchsuchen.
Naja, wenn Apple sowas einführt, wird es auch im Einklang mit ihren Geschäftsbedinungen sein ;)
Ich finde es ja schon ein NoGo, dass Google meine Daten nicht verschlüsselt ablegt.
Mir ist durchaus klar, dass man Android ohne Cloud (und auch ganz ohne Google) nutzen kann und ich finde es vollkommen erschreckend, was Apple sich da ausgedacht hat. Nicht, dass noch jemand auf die Idee kommt, ich würde CSAM verteidigen wollen ;)
Trotzdem empinde ich die Auswirkung von "wir haben dein ganzes Smartphone in unsere Cloud geladen, jetzt ist es auf unserem Rechner und da haben wir gesehen, dass du Inhalte hast, die wir für illegal halten" nicht so verschieden zu "wir haben dein Smartphone gescannt und haben Hashes gefunden, die wir für illegal halten". Ich find beides nicht okay.