• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Kommunikationssicherheit für Kinder wird weiter ausgerollt

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.835
Child-Safety-CSAM-700x400.jpg


Jan Gruber
Viele unserer Leser:innen erinnern sich sicher an die Funktion "Kommunikationssicherheit für Kinder". Die iMessage Funktion wird jetzt in weitere Länder und Regionen ausgerollt.

Im Jahr 2021 gab es große Diskussionen rund um geplante Sicherhetismaßnahmen von Apple. Der Konzern hat auf einen Schlag mehrere Initiativen vorgestellt, die unterschiedlich aufgefasst wurden. Stein des Anstoßes war CSAM, eine Technologie die Fotos lokal auf Kinderpornografie untersuchen sollte. Mittlerweile ist Apple von diesem Plan abgewichen. Anders sieht es bei anderen, ggf sinnvolleren und weniger anfäliigen Maßnahmen aus, wie der "Kommunikationssicherheit für Kinder".

Kommunikationssicherheit für Kinder wird erweitert​


Die Kernfunktion soll Kinder vor potentiell schädlichen Inhalten schützen. Wenn der Scanner ein Nacktbild erkennt wird es erst nach einer zusätzlichen Rückfrage dargestellt. Was in den USA begann wird jetzt in weitere Länder ausgerollt. Auch hier erfolgt die Prüfung der Fotos ausschließlich auf dem Gerät. Apple erklärt die Vorgangsweise in einem Suppportdokument genauer.

Aktuell ist die Funktion in folgenden Ländern bereits im Einsatz:
  • USA
  • Großbritannien
  • Kanada
  • Frankreich
  • Deutschland
  • Australien
  • Neuseeland

Jetzt kommen laut iCulture folgende Regionen dazu:
  • Niederlande
  • Belgien
  • Brasilien
  • Japan
  • 2 nicht noch nicht genannte weitere Länder, außerhalb der EU

Die Funktion kann unter dem Menüpunkt "Bildschirmzeit" aktiviert werden.

via iCulture
Cover via Macrumors

Den Artikel im Magazin lesen.
 

MacAlzenau

Golden Noble
Registriert
26.12.05
Beiträge
22.522
Wie jetzt? Kinder sollen vor Nacktbildern geschützt werden, aber exzessive Gewalt ist kein Problem?
Oder führt der Magazinbeitrag hier Nacktbilder nur als Beispiel auf? Und es werden auch Bilder mit Waffen, Leichen, rauchenden oder saufenden Menschen erfasst?
 

NorbertM

Laxtons Superb
Registriert
03.01.15
Beiträge
9.397
Wie jetzt? Kinder sollen vor Nacktbildern geschützt werden, aber exzessive Gewalt ist kein Problem?
Oder führt der Magazinbeitrag hier Nacktbilder nur als Beispiel auf? Und es werden auch Bilder mit Waffen, Leichen, rauchenden oder saufenden Menschen erfasst?

Du stellst Kinderpornografie und Bilder von rauchenden Menschen auf eine Stufe?
 

MobilPhunk

Auralia
Registriert
06.11.22
Beiträge
197
Du stellst Kinderpornografie und Bilder von rauchenden Menschen auf eine Stufe?
Warum muss es sich bei Nacktbildern zwingend um Kinderpornographie handeln?
Der coole Kumpel kann auch "nur" ein XXX Bildchen einer erwachsenen Erotikdarstellerin schicken.

Wenn es schon darum geht Kinder vor "potentiell schädlichen Inhalten" zu schützen, dann ist Nacktheit doch eben nicht die einzige Baustelle in Zeiten von Schulhof-Prügelvideos, LiveLeak-Seiten, Social Media Beiträge/Diskussion über Selbstverletzung, etc.
 

landplage

Admin
AT Administration
Registriert
06.02.05
Beiträge
23.482
Und weil andere Sachverhalte (noch?) nicht gefiltert werden, soll Apple auf diese Maßnahme gleich ganz verzichten?
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.017
Na dann können wir ja auch alle Chats und Telefonate auf Hinweise von Bankraub oder Körperverletzungen oder bauen ohne Genehmigung oder Falschparken oder Hinweise auf das Strategiespiel „Commandos“ hin durchsuchen. Weil ist ja verboten.
 
Zuletzt bearbeitet:

landplage

Admin
AT Administration
Registriert
06.02.05
Beiträge
23.482
Für mich liest es sich so. Das klingt für mich nicht wie "leider nur ein Anfang, aber besser als nichts", sondern wie "wenn nicht alles und sofort erfolgt, können sie es auch lassen".
 

MobilPhunk

Auralia
Registriert
06.11.22
Beiträge
197
#2: Will wissen ob neben Nacktheit noch etwas anderes abgedeckt wird.
#3: Stellt die Frage, ob #2 Kinderpornographie gleichzusetzen ist mit rauchenden Menschen (da sollte es wohl keine zwei Meinungen geben)
#4: Ich definiere Nacktheit nicht nur als Kinderpornographie und versuche zu erläutern dass die Frage von #2 für legitim halte und dass explizite Inhalte aus andere Bereichen überprüft werden sollten, wenn wie im Text beschrieben der Ansatz "Die Kernfunktion soll Kinder vor potentiell schädlichen Inhalten schützen" ist.

Über Sinn oder Unsinn der Funktion im Ganzen oder in der jetzigen Form habe ich nichts geschrieben.