• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Nackt-Scanner: Umstrittene Funktion mit iOS 16 Beta 4

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.528
Im Sinne von Google sind Nacktfotos von Kindern wohl "schwerwiegend" genug.

Hab die letzten Postings nicht gelesen, sorry.

Edit: ...und den größeren Zusammenhang daher nicht. Ich denke, Du beziehst Dich auf den Vater, der Bilder des (entzündeten!) Genitalbereichs seines Kindes zur telemedizinischen Untersuchung geschickt hat. Dass google den Account gesperrt/gelöscht hat, ist ja wohl noch das kleinste Übel. Eine polizeiliche Durchsuchung ist ja wohl krasser und in unserer heutigen Welt reicht ja schon das Gerücht, dass sich Frau/Verwandte/Freunde von einem abwenden und man Job/Haus usw. verliert.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Benutzer 251455

AndaleR

Moderator
AT Moderation
Registriert
09.08.20
Beiträge
7.084
Im Sinne von Google sind Nacktfotos von Kindern wohl "schwerwiegend" genug.
Jeder der Kinder hat, wird hier anderer Meinung sein. Blicke ich in die Alben unserer Eltern oder in die unserer Kinder, wird Google & Co. uns hassen… Und hier geht die Abgrenzung dann los - was ist normal und was nicht… Als normaler Mensch eigentlich recht einfach.

Nur sind die Inhalte in falschen Händen dann gefährlich. Und hier muss man etwas machen - da stimme ich absolut den Versuchen und Maßnahmen dagegen zu.
 

access

Zwiebelapfel
Registriert
21.11.12
Beiträge
1.277
Wohl dem der seine Konten diversifiziert und Backups auf dem Rechner macht... Sowas wie beschrieben geht eigentlich gar nicht, ich würde mir mein Konto über den Rechtsweg zurückholen.
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.017
Schon immer wieder erstaunlich was die Menschen so hinnehmen und irgendwie als „naja schon irgendwo ok“ verklären.

da geht die Menschheit wohl hin.
 
  • Like
Reaktionen: Mitglied 250838

Benutzer 251455

Gast
Schon immer wieder erstaunlich was die Menschen so hinnehmen und irgendwie als „naja schon irgendwo ok“ verklären.
Ich verkläre gar nichts. Ich sage nur man sollte AGBs lesen, sich dran halten und nicht alles von ein und demselben Anbieter abhängig machen.
 

tobeinterested

Weisser Rosenapfel
Registriert
15.05.11
Beiträge
785
Das hat nochmal genau was mit dem hier diskutierten Thema zu tun?

also außer … nichts?

Wenn Du den Zusammenhang nicht erkennst, empfehle ich den Beitrag von Marcel nochmal zu lesen und zu verstehen.
Der Zusammenhang wird dann auch für Dich deutlicher werden.

Wenn Du dann dein neues iPhone in den Händen hälst, werden deine Bedenken sich in Luft aufgelöst haben, die neuen Features werden alles wieder übertrumpfen.
 

tobeinterested

Weisser Rosenapfel
Registriert
15.05.11
Beiträge
785
Das ist feinster whataboutismus und hat mit der Kritik von @MichaNbg halt wirklich gar nichts zu tun.

Das was Du gerade geschrieben hast ist völliger Blödsinn.

Ich finde seine Kritik absolut berechtigt.

Die Überschrift des Threads hast Du gelesen?
Die Ausführungen von Marcel auch?

Dann sollte jedem Nutzer klar sein, was zu tun ist, wenn er keine Scans möchte, egal wo. Ob bei Google Apple oder sonst wo.

Und da überhaupt noch nicht klar ist, wo Apple mit seiner Überwachungssoftware hin will, muss man sich als Gegner solcher Überwachungen überlegen, welche Produkte man noch kauft und wie man die angebotenen Systeme nutzt.

Die Meisten wollen alleine schon aus Bequemlichkeit nicht auf die Cloud oder vielleicht sogar auf Apple Produkte verzichten.

Ich habe 2 Wochen gebraucht alles auf deutschen Servern zu verlegen und mit verschiedenen Konten verschlüsselt zu synchronisieren. Das geht genauso gut, ist aber eine Heidenarbeit.

Zum Schluss bleibt dann die Frage, muss es Apple sein? Ich habe es jetzt so gestaltet, das ich Systemübergreifend arbeiten kann.

Jeder muss für sich entscheiden, wie weit er da für sich gehen will.

Für mich ist klar, ich will keinen Scan, schon gar nicht auf meinen Geräten.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.528
Apple hat etwas ganz anderes vor: Sie wollen unlöschbare Spionage-Software verdeckt im Betriebssystem unterbringen und damit fremde Computer (nämlich die aller iCloud-Kunden) durchsuchen.
yep.

Und das ist nur der "gute" (bisher bekannte, der "Kindersicherheit" dienende erweiterte) Teil. Und nein, ich bin nicht dagegen, Kinder zu schützen. Totschlagargument.
 
  • Like
Reaktionen: tobeinterested

BalthasarBux

Schweizer Glockenapfel
Registriert
25.12.19
Beiträge
1.391
@Wuchtbrumme Hättest du den Text gelesen, wärst du vielleicht bis zu der Stelle gekommen, in der es heißt "CSAM-Scanner kam dann doch nicht". Es werden keine Scans auf den Geräten auf spezifisches Material unternommen, da dass Ende Dezember 2022 (zu recht) begraben wurde.
Die Nummer hier ist viele Nummern kleiner. Es ist eben nicht "yep" auf "Sie wollen unlöschbare Spionage-Software verdeckt im Betriebssystem unterbringen und damit fremde Computer (nämlich die aller iCloud-Kunden) durchsuchen", sondern "nope" – gottseidank.
 
  • Like
Reaktionen: frostdiver

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.528
äh, @BalthasarBux , ich fürchte, Du bist da deutlich zu optimistisch. Die ganze Technik ist da. Sie ist nicht mehr nur optional. Sie wird ausgeweitet. CSAM war nur ein kleiner Teil in der ganzen Thematik und dass das begraben ist, halte ich für ein Gerücht (obwohl das auch "offiziell" im Artikel steht; so eine Behauptung hat es aber nie gegeben und wird nicht mal zitiert; schlechter Journalismus eigentlich, es sei denn ich habe da was komplett verpasst). Ich sehe da immer noch reichlich Problempotential, die es mir nicht kleiner erscheinen lassen, weil es immer noch Sicherheitsparadigmen unterminiert.
 

Benutzer 250503

Gast
äh, @BalthasarBux , ich fürchte, Du bist da deutlich zu optimistisch. Die ganze Technik ist da. Sie ist nicht mehr nur optional. Sie wird ausgeweitet. CSAM war nur ein kleiner Teil in der ganzen Thematik und dass das begraben ist, halte ich für ein Gerücht (obwohl das auch "offiziell" im Artikel steht; so eine Behauptung hat es aber nie gegeben und wird nicht mal zitiert; schlechter Journalismus eigentlich, es sei denn ich habe da was komplett verpasst). Ich sehe da immer noch reichlich Problempotential, die es mir nicht kleiner erscheinen lassen, weil es immer noch Sicherheitsparadigmen unterminiert.
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.

Da gibt es immer wieder interessantes zu sehen.
 
  • Like
Reaktionen: tobeinterested

BalthasarBux

Schweizer Glockenapfel
Registriert
25.12.19
Beiträge
1.391
so eine Behauptung hat es aber nie gegeben und wird nicht mal zitiert;
Du kannst googlen? https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/
CSAM war nur ein kleiner Teil in der ganzen Thematik
CSAM war kein kleiner Teil. CSAM wäre wirklich fatal gewesen und ein Dammbruch.
Ich sehe da immer noch reichlich Problempotential, die es mir nicht kleiner erscheinen lassen, weil es immer noch Sicherheitsparadigmen unterminiert.
Ich will das auch weder schön-, noch kleinreden. Es ist aber nicht "Spionage-Software verdeckt im Betriebssystem unterbringen und damit fremde Computer (nämlich die aller iCloud-Kunden) durchsuchen".
Aber dann hätte man schon vor einiger Zeit auf die Barrikaden gehen müssen, als Apple angefangen hat, Objekterkennung in Fotos.app einzubauen. In meinem Verständnis ist das hier lediglich eine Objekterkennung, die eben nicht nur Menschen und Hunde erkennt, sondern Nacktheit und diese dann eben erstmal ausblendet, falls man sie nicht sehen wollte. Und ich kenne Personen, die ungefragt fremde Nacktbilder per (schlecht konfiguriertem) AirDrop bekommen haben. Möglicherweise sehe ich das zu simpel und freue mich über argumentative Aufklärung (aber bitte nicht per Youtube-Videos).
 

Benutzer 250503

Gast
Der Teil geht noch weiter ...

Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.

was es alles geben soll:innocent:wir sind alle save🤣