Meinung: Wenn Journalisten Technik (nicht) verstehen

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.676
Meinung: Wenn Journalisten Technik (nicht) verstehen
Apple-Keynote-201709-iPhone-8-FaceID-700x394.jpg



Die Vorstellung des iPhone X war ein riesiges Medienereignis. Die Medienpräsenz von Apple nimmt immer mehr zu. Früher fanden Keynotes quasi nur in Spezialmedien statt, heute berichtet jede (kleine) Zeitung, jeder Radiosender und jeder Blog oder Podcast darüber. Die dort gezeigten Neuerungen liefern dann Vorlagen für viele Artikel, auch meinungsbezogene, die oft von der sonstigen Expertise der Medien abweichen und rein auf Fehlinformationen und Missinterpretationen von Technik fußen. Einer dieser Artikel beschäftigt mich seit einigen Tagen sehr.

Die Rede ist von einem Artikel aus der Süddeutschen mit dem Titel "Das iPhone X: Ein Sprung in düstere Vergangenheit". Obwohl das Medium über einen eigenen Digital-Bereich verfügt, ist dieser Artikel - sehr passend und sinnstiftend - nicht in diesem Bereich einsortiert. Vielmehr befindet er sich im Bereich "Kultur". Kernthema des Artikels ist Face ID im neuen iPhone X. Dabei geht es absolut nicht um das Thema Sicherheit, sondern um Rassismus und Angst vor dem Staat. Apple reduziere damit den Mensch auf äußerliche Merkmale - und die Gesichtserkennung sei der neue Ansatz für politische Verfolgung.
Der Artikel im Detail - und die Fehlinterpretation aufgedeckt


"Genauer gesagt, ist es ein Schritt ins späte 19. Jahrhundert, als der Mensch auf seine Physiognomie reduziert wurde. Das war im Kolonialismus und dann in den Diktaturen des 20. Jahrhunderts die pseudowissenschaftliche Basis für Abscheulichkeiten, Verfolgungen, Völkermorde, nicht für technische Erneuerung. Der Mechanismus ähnelt sich allerdings. Damals wie heute werden Menschen und Gesichter vermessen und Schlüsse daraus gezogen. Und darin liegt eine Gefahr."​

Apple ist keine politische Institution, verfügt über keine Exekutive und auch kein Heer von Auftragskillern - soweit wir wissen. Vielleicht weiß die Süddeutsche hier mehr - wir würden, im Sinne des guten Umgangstons von Journalisten, um die Offenlegung der Quellen bitten. Sicherheitsmerkmale reduzieren immer auf gewissen Dinge - eben die Merkmale. Hämisch könnte man hier festhalten, dass auch der Fingerabdruck die Reduktion einer Person ist. Noch dazu auf wesentlich weniger - nur auf den Finger.
Fehlinterpretation von Technik


Ein Grundproblem des Artikels ist das fehlende technische Verständnis: Apple zieht keine Schlüsse aus dem Gesicht, zumindest nicht offiziell. Dies äußert sich später noch einmal in dem Artikel direkt.
"Nun stilisiert Apple seine technischen Neuerungen gerne zur Popkultur. So haben die Ingenieure in Cupertino eine Spielerei entwickelt, die niedlich wirkt, aber die finsteren Dimensionen der Gesichtserkennung entlarvt. Es handelt sich um die sogenannten Animojis. Das sind animierte Emojis, also bewegliche Versionen der Bildchen, mit denen man in Textnachrichten und auf sozialen Netzwerken komplexe Aussagen und Gefühlslagen auf ein Symbol reduzieren kann."

"Auf dem neuen iPhone kann man nun Pandabärchen, Welpenköpfe oder Kackhaufen mithilfe der Gesichtserkennung ansteuern und dazu bringen, die Mimik des Nutzers zu simulieren. Das bedeutet, dass das iPhone viel mehr kann, als nur ein Gesicht zu erkennen. Nachdem Gesundheitsanwendungen in der digitalen Industrie einer der am schnellsten wachsenden Märkte sind, ist anzunehmen, dass es bald schon Apps gibt, die via Gesichts-Scan medizinische Diagnosen erstellen. Und wer will verhindern, dass eine Anwendung bald mit Technologie aus Stanford sexuelle Vorlieben eines Nutzers erfasst?"​

Hier liegt eine völlige Fehlinterpretation der Animojis vor. Diese imitieren lediglich das, was sie in dem Gesicht erkennen. Es ist ein Scan mit einer 3D Kamera, keine Interpretation. Auf diesem Fehlschluss, und der mangelnden Recherche, fußen viele sehr feiste Behauptungen des Artikels. Apple erkennt, so die Süddeutsche, künftig quasi alles: Von der Sexualität bis hin zur politischen Gesinnung - damit wird politische Verfolgung einer neuen Art möglich.
Secure Enclave vs. Lernen in der Cloud


"Apple versichert, alle Daten aus der Gesichtserkennung würden nur auf dem Gerät selbst gespeichert, nicht auf den Cloud-Servern des Konzerns. Doch das Vertrauen hat die Firma in diesem Sommer verspielt, als es auf Anweisung der chinesischen Behörden die VPN-Apps aus seinem Angebot entfernte, also jene Programme, mit denen dort Bürger die digitalen Blockaden ihres Landes umgehen konnten. Auch bleibt die Frage, ob Apple wirklich langfristig auf den riesigen Datensatz verzichten will, der so entsteht. Google hat bei der Entwicklung künstlicher Intelligenz ja gerade deswegen einen solchen Vorsprung, weil es die Daten aus dem Nutzerverhalten nutzt, um seine Programme zu füttern und so zu perfektionieren. Und wer garantiert dann den Nutzern, dass es nicht bald Trojaner gibt, die Gesichtsdaten mitsamt der Gefühlslagen aus dem iPhone abgreifen?"​

Hier kann ich dem Journalisten nur raten, sich mit dem Konzept der Secure Enclave zu befassen. Apple legt FaceID dort ab und kommt letztlich selbst nicht an die Daten. Ein Vorteil, der dem Konzern im Fall um San Bernandino und FBI sehr half. Eben um nicht von Regierungen ausgenutzt zu werden, wird Apple dies weiterhin hochhalten. Zwar ist der Vergleich zu Google rühmlich, das Argument der VPN Apps aber mehr als schwach. Apple gibt sich Marktregularien hin, ein Austritt aus dem chinesischen Markt ist einfach nicht denkbar. Zwar ist die Entfernung der VPN-Apps vielen Nutzern auch hierzulande sehr aufgestoßen, dennoch kann ich den Konzern hier aus wirtschaftlicher Sicht sehr gut verstehen. Letzten Endes: Apple ist ein börsennotiertes, gewinnorientertes, den Aktionären verpflichtetes Unternehmen. Den Handel aus China aus diesem Grund einzustellen, wäre auch den Anlegern gegenüber nicht denkbar gewesen.

Man entschuldige mir an dieser Stelle den leichten Seitenhieb, ich kann hier nicht wiederstehen: Wer im Glashaus sitzt, sollte allerdings ohnedies nicht mit Steinen werfen. Auch Zeitungen haben einen Auftrag gegenüber der Allgemeinheit. Sie sollen informieren und aufklären. Gerade aus diesem Aspekt sind Paywalls diskussionswürdig. Die Süddeutsche besitzt eine solche Paywall. Ich möchte sie an dieser Stelle nicht dafür verurteilen - Journalismus kostet und Leistung (der Redakteure) muss auch entlohnt werden. Dennoch sollte jedes gewinnorientierte Unternehmen bzw. ein Unternehmen, das auch Mitarbeiter zahlen muss, vorsichtig damit sein, anderen Konzernen das Gleiche vorzuwerfen,...
Die Technik mit der Angst


Welchen Weg die Süddeutsche bei ihrer digitalen Berichterstattung einschlagen möchte, wird allein schon beim Betrachten der Kategorie klar. Es werden generell ethische Diskussionen angestoßen, die allesamt keine Antworten enthalten. Vielmehr werden Halbwahrheiten verbreitet und eindeutig Angst und Paranoia geschürt. Angst ist ein mächtiges Instrument aller Medien - in erster Linie wird damit Auflage gemacht. Weiterführende gesellschaftliche Entwicklungen sind hier offenbar unerheblich. In dem Artikel wird Gesichtserkennung als wesentlicher Punkt zur Analyse von Menschen dargestellt.

Ausgehend davon wird politische Verfolgung - aufgrund der eigenen politischen Vorstellung oder gar Religion oder Sexulität - ermöglicht. Vor allem in den letzten Jahren bewies sich Apple als vernünftiger politischer Player, zumindest was die Themen Sexualität, Gleichberechtigung aber auch den Umgang mit Flüchtlingen betrifft. Aber klar - ein Konzern, dessen Chef selbst homosexuell ist, wird die nächste Waffe zur Verfolgung von Homosexuellen liefern,... diese These ist mehr als an den Haaren herbei gezogen und einfach kein zweites Mal bedacht. Auf der anderen Seite ist es natürlich auch eine gute Ablenkung. Während Apples negative, politische Einmischung (abseits von Steuerthemen) de facto nicht belegbar ist, ist eine Auswirkung auf Politik und Machtverhältnisse sehr wohl nachweisbar: Die der Medien und Zeitungen, wie sie die Süddeutsche eine wäre,...
Digitale Berichterstattung - Technik etwas besser, aber später, verstehen.


Dennoch positiv erwähnen möchte ich den Artikel "Wer unsere Gesichter wirklich will". Dort stellt die Süddeutsche einiges klar - in Bezug auf den Tage zuvor veröffentlichten, oben angeführten, Artikel. So positiv diese Klarstellung an sich sein mag, so negativ und nicht den journalistischen Qualitätskriterien Genüge tuend ist der ursprüngliche Bericht. In Zeiten wie diesen sollen und müssen Qualitätsmedien durch messerscharfe, tiefgreifende und wahre Berichte punkten. Der Schnellschuss, der zuerst nur einmal Panik schürt, mag Klicks bringen - schadet aber langfristig dem Medium und dem Journalismus an sich. Es darf und muss Zeit für Recherche geben - und nicht nur lose Klarstellungen.
Sozialer Diskurs und ethische Diskussion notwendig


Trotz allem möchte ich mich grundsätzlich anschließen. Moderne Technik wird tatsächlich immer beunruhigender, vor allem sobald diese in der Lage ist, Aufgaben und Tätigkeiten des Menschen zu übernehmen. Wir werden in den kommenden Jahren derartige Diskurse zu führen haben, wir werden ethisch einige Dinge zu bewerten haben. Aber bitte nicht so,...
 

Mure77

Golden Noble
Registriert
25.06.07
Beiträge
14.845
Die Bewertung auf dieser Ebene war nicht richtig und sicherlich deutlich daneben.
Ich persönlich halte diese ganze Face ID dennoch für bedenklich.

Warum ? Irgendeiner erfindet diese Technik und egal was man dazu sagt und wo man es ablegt. Es ist digital für Leute die es drauf haben zugänglich.

Dieser Naivität, das dem im Extremfall nicht so wäre, unterliege ich nicht.
 
  • Like
Reaktionen: Yiruma

giesbert

Hibernal
Registriert
20.09.14
Beiträge
1.998
Warum ? Irgendeiner erfindet diese Technik und egal was man dazu sagt und wo man es ablegt. Es ist digital für Leute die es drauf haben zugänglich.
Ich verstehe nicht so ganz, was der Satz heißen soll, aber ich vermute, du befürchtest, dass die Gesichtscans irgendwie "in die falschen Hände" geraten könnten (was natürlich auch schon für die Fingerabdrücke bei Touch ID gilt). Der Witz: Face ID speichert so wenig Gesichtsscans wie Touch ID Fingerabdrücke speichert. Gespeichert wird ein mathematisches Modell, das zwar (a) eindeutig einem Gesicht/Fingerabdruck zugeordnet werden kann, aber bei dem es (b) unmöglich ist, vom Modell auf das Gesicht/den Fingerabdruck zu schließen bzw. diese zu rekonstruieren (Stichwörter: Hash, Einwegfunktion).

Bei der Registrierung wird das entsprechende Modell gebildet und gespeichert. Mehr nicht. Bei jeder Anmeldung wird das Modell erneut berechnet und dann mit dem hinterlegten Modell verglichen. Sind beide gleich, gibt's Zugang zum Geräte, wenn nicht, dann nicht.

Wenn es nun jemanden gelingen sollte, an die in der Secure Enclave gespeicherten mathematischen Modelle zu kommen - was schon mal ne ziemlich Hürde ist -, dann kann er damit genau gar nichts anfangen.

Das Problem, das ich da sehe, ist eher ein anderes: Wer gewöhnen uns daran, dass wir biometrisch erfasst werden. Und geben dann auch bereitwillig Fingerabdrücke, Iris-Scans etc ab, wenn es sich um deutlich unsichere Systeme als Touch bzw. Face ID handelt.
 

giesbert

Hibernal
Registriert
20.09.14
Beiträge
1.998
Dass der Autor des zitierten Artikels nicht wirklich verstanden hat, was bei Face ID eigentlich passiert, sieht man auch an diesem Quatsch:
Auf dem neuen iPhone kann man nun Pandabärchen, Welpenköpfe oder Kackhaufen mithilfe der Gesichtserkennung ansteuern und dazu bringen, die Mimik des Nutzers zu simulieren. Das bedeutet, dass das iPhone viel mehr kann, als nur ein Gesicht zu erkennen.
Der Autor scheint Gesichtserkennung in Foto-Apps (die 2D ist) mit Gesichtserkennung mit Face ID (die 3D ist) zu verwechseln. Und überhaupt nicht zu erkennen, dass die animierten Emoticons vor allem eins zeigen: dass Face ID das Zeug anscheinend zu einem 3D-Scanner hat. Was ich für ein Smartphone schon mehr als erstaunlich finde.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.412
Hallo Jan,

interessante Aspekte. Den Artikel habe ich selbst noch nicht gelesen. Ich schätze die SZ aber sehr. Dass der Artikel unter Kultur eingeordnet ist mag erklären, warum die technischen Details etwas unter den Tisch fielen. Ich finde das aber nicht nur nicht schlimm, sondern auch valide. Es gibt halt Besorgnisse und ich als Nerd, Geek, IT-Profi und was weiss ich nicht alles teile die Ansicht, dass man nicht alles neue undifferenziert gutheissen sollte, sondern so wie wir Deutschen das üblicherweise tun: drüber nachdenken, evaluieren, regeln und dann ggfls. nachjustieren. Ist zwar in der IT sträflich vernachlässigt worden und wenn, dann auch viel zu kritiklos nur in Richtung „Pro-IT“ (mit Ausnahme: digitaler Staat für den Bürger), aber jo mei.

Ich würde es begrüssen, wenn es endlich mal einen gesellschaftlichen Diskurs gäbe (Terrorismus, „Überwachung“, Digitalisierung), zu dem der Artikel mithelfen könnte. Denn so funktioniert es nun mal. Es gibt halt auch Leute, die sind keine Cracks, die betrifft das Thema aber genauso. Damit muss man umgehen. Das ist einer der Punkte, wo unsere „indirekte Demokratie“ leider nicht glänzt. Oder um es treffender mit unserem Altkanzler auf den Punkt zu bringen: „Basta!“.
 

.holger

Borowitzky
Registriert
13.09.04
Beiträge
8.970
Hier kann ich dem Journalisten nur raten, sich mit dem Konzept der Secure Enclave zu befassen. Apple legt FaceID dort ab und kommt letztlich selbst nicht an die Daten. Ein Vorteil, der dem Konzern im Fall um San Bernandino und FBI sehr half.

Das San Berndino-iPhone war ein 5c. Das hat keine Secure Enclave.
 

ChrisW90

Linsenhofener Sämling
Registriert
17.09.14
Beiträge
2.542
Schöner Artikel hier @Jan Gruber !

Habe mich als der Artikel der SZ veröffentlicht wurde auch gewundert, wie eine renommierte Zeitung so einen Unsinn veröffentlichen kann. Und für solchen "Qualitätsjournalismus" soll man dann auch noch Geld bezahlen, vielen Dank!

Wer sich ernsthaft Sorgen um seine Privatsphäre macht und das Problem bei FaceID sieht, der sollte erstmal überlegen, an welchen anderen Stellen inzwischen (und vor allem in naher Zukunft) seine Privatsphäre mit Füßen getreten wird, Überwachungskameras auf öffentlichen Plätzen und sowas. Dort ist im Gegensatz zu FaceID nicht gesichert, was mit den daraus gewonnenen Daten gemacht wird und vor allem wie diese geschützt sind.

Datenschutz bei Behörden wird ja offensichtlich nicht besonders Ernst genommen, wenn man sich alleine mal die Sicherheitslücken bei der offiziell verwendeten Software zur Übermittlung der heutigen Wahlergebnisse anschaut. Aber das ist ein anderes Thema.
 
  • Like
Reaktionen: Wuchtbrumme

Mure77

Golden Noble
Registriert
25.06.07
Beiträge
14.845
@giesbert Ich glaube nicht daran dass die Dinge isolierte Errungenschaften sind und sie nicht greifbar sind. Aber ich komme damit klar. Wir können seit jeher überwacht werden. Heute nur besser und genauer. Das ist für mich aber auch ein gewisser preis der Freiheit bzw Sicherheit.
Auch wenn viele Dinge erst im Nachhinein aufgeklärt werden können und nicht im Vorfeld verhindert.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.676
Hallo Jan,
Ich würde es begrüssen, wenn es endlich mal einen gesellschaftlichen Diskurs gäbe (Terrorismus, „Überwachung“, Digitalisierung), zu dem der Artikel mithelfen könnte. Denn so funktioniert es nun mal. Es gibt halt auch Leute, die sind keine Cracks, die betrifft das Thema aber genauso. Damit muss man umgehen. Das ist einer der Punkte, wo unsere „indirekte Demokratie“ leider nicht glänzt. Oder um es treffender mit unserem Altkanzler auf den Punkt zu bringen: „Basta!“.

Dem schließe ich mich in meinem Fazit ja völlig an:

"Wir werden in den kommenden Jahren derartige Diskurse zu führen haben, wir werden ethisch einige Dinge zu bewerten haben. Aber bitte nicht so,..."

Wir benötigen hier Diskurs, den können und werden auch Medien anstossen müssen, der führt aber nicht weit wenn die breite Bevölkerung mit falschen Argumenten einfach nur in Angst versetzt wird. Der Diskurs kann nicht vernünftig laufen wenn es da einfach nur Fehlinformationen gibt.

Das San Berndino-iPhone war ein 5c. Das hat keine Secure Enclave.

Ja stimmt, ist ungeschickt formuliert. Sie kamen ja damals auch schon nicht an die Infos direkt ran weil Software-Verschlüsselt und haben sich dahinter versteckt (anders als bei der iCloud), hätte es ne Secure Enklave gehabt wäre es noch schwieriger / eindeutiger geworden. War eher in die Richtung gemeint aber doof geschrieben. Ich lass es dennoch so stehen jetzt um da nicht nachträglich herum zu korrigieren, nachdem du den Artikel schon zitiert hast und der was ich so mitkrieg auch anderweitig, außerhalb der Community, "aufgenommen und zitiert" wurde ,... Aber danke für den Hinweis. Fiel mir so vor lauter Bäumen der Wald garnicht mehr auf ;)
 
  • Like
Reaktionen: .holger

drshox

deaktivierter Benutzer
Registriert
05.06.17
Beiträge
119
Warum schreibt man nicht die Süddeutsche Zeitung / Redaktion an, wenn man als Leser dieser Zeitung anderer Meinung ist ?
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.676
Mediekritik in anderen Medien ist nicht unüblich und darf auch sein. Ich habe absichtlich den Artikel verlinkt, a) als Quellenangabe aber b) auch um die Süddeutsche zu informieren. Ich denke nicht, das hier aber das Thema ist wie und wo Meinungen und Bedenken kommuniziert werden.

Kommentarfunktion gab es auf der Süddeutschen keine, ich habe dann aber zwei Wege probiert: 1) Die Redaktion angeschrieben, ohne Reaktion und 2) Dann Journalisten von dort die ich kenne kontaktiert. Da gab es ein Gespräch hinter den Kulissen, unter Kollegen, das letztlich dazu führte, dass ich auch den Folgeartikel in der Techniksparte dann noch in meine Kritik genommen habe und das als leichte Abmilderung und Richtigstellung etwas anerkannte.
 
  • Like
Reaktionen: kelevra und ottomane

Flogs

Alkmene
Registriert
21.02.16
Beiträge
31
Als ITler sehe ich in dem SZ Artikel eine Befürchtung, die sicherlich nicht verkehrt ist. Die Menschen sollten neue Techniken nicht nur als das sehen, wofür sie ihnen gezeigt werden, sondern auch dafür, wofür sie verwendet werden können.

Aber das hat meiner Meinung nach ganz und gar nichts mit Face ID oder Touch ID oder was auch immer zu tun. Apple verbaut die Technik in ein Handy, weil es aktuell möglich ist die Technik in ein Handy zu verbauen. Die Technik an sich gibt es schon deutlich länger. Egal ob das nun Fingerabdrücke sind, oder wie hier ja auch so schön berichtet wurde ein "Kinect-ähnliches" System. Das alles gibt es schon, und es wird massenweise in der Überwachung eingesetzt.

Das scheint aber die SZ nicht so sehr zu interessieren. Da versucht man lieber, auf der Apple Welle einen kritischen Artikel zu platzieren und mit Hilfe von Google und Apple Ängste zu schüren. Anstatt es beim Namen zu nennen: Die Technik die dem SZ Redakteur Angst macht, auf die trifft er genauso in Bahnhöfen, Flughäfen, im Urlaub in London und natürlich im Bürgerbüro seiner Wahl bei der Beantragung eines neuen Personalausweises oder Reisepass. Hab ich schon die Gesundheitskarte erwähnt?

Ja, das klingt alles nach Aluhut, aber wenn man das Thema schon so aufzieht wie die SZ, sollte man es richtig machen und nicht nur wegen ein paar Klicks. So ist es einfach heuchlerisch.

Der Witz: Face ID speichert so wenig Gesichtsscans wie Touch ID Fingerabdrücke speichert. Gespeichert wird ein mathematisches Modell, das zwar (a) eindeutig einem Gesicht/Fingerabdruck zugeordnet werden kann, aber bei dem es (b) unmöglich ist, vom Modell auf das Gesicht/den Fingerabdruck zu schließen bzw. diese zu rekonstruieren (Stichwörter: Hash, Einwegfunktion).

Dir sollte klar sein, dass eine Hashfunktion immer nur so sicher ist, wie es aufwändig ist sie zurück zu rechnen. Sobald Angriffsvektoren in der Hashfunktion gefunden sind und diese aufweichen, ist sie nicht mehr viel Wert (Stichwörter: MD5, SHA1) Dann kann man zwar noch nicht die Ursprungsdaten berechnen, aber eine Menge möglicher Varianten. Und wenn diese Varianten ein Gesicht beschreiben sollen, schließt das wahrscheinlich sehr leicht viele davon aus.

Dennoch sollte man es nicht übertreiben. Wenn jemand den Kopf vermessen möchte, dann verbaut er halt irgendwo eine Kamera die genauso arbeitet wie Face ID bzw. jede Kinect. Das ist unauffällig und man hat die gewünschten Daten ohne Umwege.
 

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.375
Es ist digital für Leute die es drauf haben zugänglich.
Das ist nicht möglich, wenn Apple es richtig gemacht hat, ebenso wie es unmöglch ist, den Fingerabdruck oder ein gespeichertes Passwort auszulesen. Diese Daten sind faktisch einfach nicht gespeichert.

Über einen Hashangriff das Gesichtsmodell zurückzurechnen halte ich aufgrund der Fülle der Daten für praktisch unmöglich.
 

Flogs

Alkmene
Registriert
21.02.16
Beiträge
31
Über einen Hashangriff das Gesichtsmodell zurückzurechnen halte ich aufgrund der Fülle der Daten für praktisch unmöglich.

Ich bin mir da nicht so sicher, weiß allerdings auch nicht wie Apple das berechnet. Hast du da weitere Informationen darüber, du scheinst dir ja recht sicher zu sein? Nachdem das ganze ja am Ende auf Hashes herausläuft die verglichen werden (hoffe ich), muss Apple irgendwo die Daten des Gesichts deutlich vereinfachen, so dass kleinere Abweichungen nicht unweigerlich zu einem anderem Hashwert führen.
 

walnussbaer

Wagnerapfel
Registriert
04.05.09
Beiträge
1.556
Diese ganze Annahme, die Gesichtsdaten lägen in einem Container, den Apple nicht erreichen könnte, selbst wenn sie es wollten, beruht auf einem für mich erschreckenden Urvertrauen in Apples Aufrichtigkeit und Wohlwollen dem Benutzer gegenüber. Es ist zwar toll, dass Apple sich diesen Ruf erarbeitet hat, aber die Begründetheit dieses Vertrauens lässt sich, soweit ich das überschauen kann, nicht ansatzweise technisch nachvollziehen durch Code o.ä. Man muss ausschließlich auf die Aussage vertrauen, dass dies so sei. Dabei gibt es eine große Motivation, diese Daten (nicht nur die Gesichtsdaten, sondern alles, was so immer Google angedichtet wird) auszuwerten und eigentlich kein echtes Motiv, dies nicht zu tun.
 

doc_holleday

Roter Herbstkalvill
Registriert
14.01.12
Beiträge
13.264
eigentlich kein echtes Motiv, dies nicht zu tun.

Das Motiv ist das "Urvertrauen" nicht zu erschüttern, da dieses ein starkes Marketing-Argument für Apple ist.

Die Wahrscheinlichkeit, dass "Tricksereien" nicht doch irgendwann raus kommen ist wahrscheinlich gar nicht mal so gering, weil es da draußen genug Leute gibt, die den Ansporn haben den Herstellern genau ihre Falschaussagen unter die Nase zu reiben.
 

giesbert

Hibernal
Registriert
20.09.14
Beiträge
1.998
Das zweite große Zauberwort beim Thema "Sicherheit": Unterm Strich läuft es immer darauf hinaus, dass ein Verfahren a) praktisch nicht geknackt werden kann (= also nur mit extrem hohen Aufwand) und b) dass wir als Anwender irgendjemanden vertrauen müssen. Fängt bei den Stammzertifikaten im System an und hört bei Face ID noch lange nicht auf. Hier gibt es gewissermaßen nur einen Indizienbeweis über Bande: Wenn Apple mit den Daten Unfug treiben oder schlicht lügen würde, wäre das inzwischen bekannt geworden. Die großen Unternehmen - Microsoft, Apple, Google, … - stehen praktisch unter Dauerbeschuss.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.412
Diese ganze Annahme, die Gesichtsdaten lägen in einem Container, den Apple nicht erreichen könnte, selbst wenn sie es wollten, beruht auf einem für mich erschreckenden Urvertrauen in Apples Aufrichtigkeit und Wohlwollen dem Benutzer gegenüber. Es ist zwar toll, dass Apple sich diesen Ruf erarbeitet hat, aber die Begründetheit dieses Vertrauens lässt sich, soweit ich das überschauen kann, nicht ansatzweise technisch nachvollziehen durch Code o.ä. Man muss ausschließlich auf die Aussage vertrauen, dass dies so sei. Dabei gibt es eine große Motivation, diese Daten (nicht nur die Gesichtsdaten, sondern alles, was so immer Google angedichtet wird) auszuwerten und eigentlich kein echtes Motiv, dies nicht zu tun.

natürlich, vollkommen richtig. Aber weil Apple Apple ist und Kunden hat, die auf diese Aussage vertrauen und den Systemaufpreis sowie die Hardware teuer bezahlen sollten sie sich besser nicht erwischen lassen.