• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

Missbrauchs-Erkennung: Meldung erst ab 30 Fotos

Max Mohr

Granny Smith
Registriert
05.01.21
Beiträge
16
MacBook-Pro-16-2019-10-Fotos-700x400.jpg



Anfang des Monats hat Apple eine Strategie zur Bekämpfung von Kinderpornographie vorgestellt. Sie soll ab den kommenden großen Software Updates in Kraft treten. Datenschützer kritisierten das System stark, sodass Apple das Vorgehen präzisiert.
Erkennung von Missbrauchsfotos


Das neue System zur Bekämpfung von Kinderpornographie ist nicht unumstritten. Mittels Hashes soll das iPhone Fotos der iCloud auf kinderpornographische Inhalte prüfen und melden. Kritiker befürchteten, dass damit eine Hintertür geöffnet würde, mit der auch auf andere Bilder gescannt werden könnte.
Apple präzisiert das Vorgehen


Um die einströmende Kritik abzuwehren, hat Apple ein 14-seitiges PDF-Dokument veröffentlicht. Darin wird das neue System präzisiert. So soll eine Meldung an Apple erst ab 30 gefundenen Missbrauchsfotos erfolgen. Außerdem prüft Apple die Fotos noch einmal händisch. Damit sollen Fehler vermieden werden.
Meldung von 3 Falsch-positive Treffer auf 100. Millionen Bilder


Der Konzern räumt zudem ein, dass es auch zu falsch-positiven Treffern kommen kann. Beim Training der Software sei es bei der Prüfung von 100 Millionen Fotos zu drei Treffern gekommen, die keine Kinderpornographie enthielten. Das zeigt noch einmal, wie wichtig die händische Nachprüfung ist. Das gesamte System wird zunächst nur in den USA eingeführt werden, soll aber auch international ausgeweitet werden.

[su_box title="Unsere Haltung zu Gewalt" box_color="#ffffff" title_color="#000000" radius="0" class="live"]Apfeltalk und das ganze Team verurteilt Gewalt in jeder Form und insbesondere an Kindern. Dies abscheulichen Straftaten gehören verfolgt und die Täter mit der vollen Härte des Gesetzes bestraft. In unserer Berichterstattung geht es um die Verhältnismäßigkeit der Art wie hier ermittelt werden soll.*

Den Artikel im Magazin lesen.
 
Zuletzt bearbeitet von einem Moderator:

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.513
@Max Mohr Du schreibst über die lokale Erkennung mit der Meldungs-Option, verwendest aber ein Bild über die "Nackterkennung in iMessage", zu der Apple selbst sagt, dass sie mit ersterem nicht verbunden sei - finde ich unkorrekt ohne diesen Hinweis.
Allerdings sind in der Tat Zweifel angebracht, ob diese Trennung immer so bleiben wird, was ich auch selbst schon geäußert habe.
 

Blurryface

Oberösterreichischer Brünerling
Registriert
22.04.18
Beiträge
711
"Außerdem prüft Apple die Fotos noch einmal händisch."

Dem ist nichts hinzuzufügen.
In meinen Augen reiten die sich immer weiter rein.
Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?
Einfach nur zum 🤮
 

MichaNbg

Bittenfelder Apfel
Registriert
17.10.16
Beiträge
8.008
"Außerdem prüft Apple die Fotos noch einmal händisch."

Dem ist nichts hinzuzufügen.
In meinen Augen reiten die sich immer weiter rein.
Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?
Einfach nur zum 🤮
Naja, also da sollte man schon realistisch sein und sich die Alternative überlegen:

Wenn die Software Treffer raushaut und das ganze dann ohne Kontrolle an die Behörden übergibt, hast du dein Leben bei false positives ganz schnell ruiniert. Und zwar unrettbar.

Also wenn das überhaupt kommt, dann bitte nur und ausschließlich mit Endkontrolle durch Menschen, die sich die Treffer nochmal ansehen und gegen den angeblichen Match prüfen.

Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden.
Sonst hast irgendwann wirklich die Staatsanwaltschaft im Haus, weil du dein kleines Kind im Badezimmer auf dem Maushandtuch fotografiert hast.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.513
"Außerdem prüft Apple die Fotos noch einmal händisch."

Dem ist nichts hinzuzufügen.
In meinen Augen reiten die sich immer weiter rein.
Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?
Einfach nur zum 🤮
da kommt mir ein interessanter Gedanke:
Scannen tun sie in der Cloud ja eh, dafür haben sie sich in den AGB oder per Gesetz auch das Recht (ausgedungen), es dürfte auch einiges an Rechenleistung fressen - lassen wir das lokal machen. Können wir als "viel mehr Privacy" verkaufen und unser CO2-Footprint wird deutlich besser. Nicht nur das am meisten auf Datenschutz orientierte Unternehmen, sondern auch das grünste! Und wir tun was für unsere Kinder. Ob die Keynote schon fertig ist?

Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden.
Sonst hast irgendwann wirklich die Staatsanwaltschaft im Haus, weil du dein kleines Kind im Badezimmer auf dem Maushandtuch fotografiert hast.
das machen doch amerikanische Eltern eh nicht. Tschuldigung, die Formulierung war falsch. Amerikaner, die diese Treffer überprüfen, wissen, dass amerikanische Eltern sowas nicht tun - oder nicht zu tun haben.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Mitglied 87291

angerhome

Pommerscher Krummstiel
Registriert
13.10.15
Beiträge
3.074
da kommt mir ein interessanter Gedanke:
Scannen tun sie in der Cloud ja eh, dafür haben sie sich in den AGB oder per Gesetz auch das Recht (ausgedungen), es dürfte auch einiges an Rechenleistung fressen - lassen wir das lokal machen. Können wir als "viel mehr Privacy" verkaufen und unser CO2-Footprint wird deutlich besser. Nicht nur das am meisten auf Datenschutz orientierte Unternehmen, sondern auch das grünste! Und wir tun was für unsere Kinder. Ob die Keynote schon fertig ist?
IMG_1245.jpeg

Ich habe damals schon geahnt, dass man dieses Foto noch sehr häufig in vielen unterschiedlichen Zusammenhängen als selbsterklärend nutzen kann.
 

Mitglied 246615

Gast
Das habe ich bereits an anderen Stellen gelesen. Apple will also nicht von der Einführung der ansatzlosen Massendurchsuchung der End-Geräte Abstand nehmen.

Was nützt mir eine Grenze, die heute gilt? Apple kann jederzeit sagen, wir senken die Grenze.

Vor allem würde mich interessieren, wieviele echte Treffer es auf 100 Millionen Bilder gibt. Das wird man doch bestimmt aus den Erfahrungen mit dem iCloud-Scan sagen können. Denn damit würde die Verhältnismässigkeit des Mittels erkennbar.

Gibt es irgendwelche unabhängigen Audits, die die Zahlen, die Apple nennt, auch bestätigen? Mir sind die bisher nie untergekommen.
Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?
Am Ende Du, wenn Du die AGB abnickst und das musst Du bei einem Update ja machen oder kannst das Update nucht aufspielen. Damit stehen Dir aber auch alle anderen neuen Funktionen des Updates nicht zur Verfügung.

Ich finde es aber gar nicht das schlimmste, dass Treffer nochmal von Menschen geprüft werden. Das eigentliche Problem ist, dass man alle Kunden als potenzielle Pädophile betrachtet. Anders lässt es sich nicht beschreiben, wenn man ohne Anfangsverdacht Milliarden Geräte auf sexuellen Mißbrauch von Kindern durchsuchen will.

Wohlgemerkt: Bei dem Verfahren können nur bereits bekannte Bilder erkannt werden! Es wird also kein neuer fall aufgedeckt! Damit ist zwar auch ein False Positive mit der planschenden Tochter im Motiv eher kein sehr wahrscheinlicher Fall. Mir ist auch nicht zur Kenntnis gelangt, dass die echten Treffer auf den Geräten gelöscht werden. Abhängig von der Meldegrenze, lässt Apple also doch noch eine gewisse Anzahl von Bildern mit sexuellem Mißbrauch von Kindern zu.
 
Zuletzt bearbeitet von einem Moderator:

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.513
Was nützt mir eine Grenze, die heute gilt? Apple kann jederzeit sagen, wir senken die Grenze.
Auch möglich: „Wir mussten das aufgrund gesetzlicher Regelungen ändern!“ osä.

Vor allem würde mich interessieren, wieviele echte Treffer es auf 100 Millionen Bilder gibt. Das wird man doch bestimmt aus den Erfahrungen mit dem iCloud-Scan sagen können. Denn damit würde die V0erhältnismässigkeit des Mittels erkennbar.
Was ist denn das für eine Frage? die stellt sich doch überhaupt nicht. Apple ist ein privates Unternehmen, kein Akteur der öffentlichen Verwaltung. Apple Apple ist kein Verfassungsorgan, schon gar kein deutsches. Auch eine interessante Frage: muss Quellkot, der in den USA geschrieben wurde, aber in Deutschland läuft, deutsches Verfassungsrecht beachten? Ich bin da nicht mehrGanz drin, da sind gleich mehrere Fragen drin.

Gibt es irgendwelche unabhängigen Audits, die die Zahlen, die Apple nennt, auch bestätigen? Mir sind die bisher nie untergekommen.
da muss man halt jemanden finden, der kein Problem damit hat, idiotische Zahlen zu nennen. Oder wie sonst sollte man es nennen, aus einer völlig unbekannten Zahl an Bildern weltweit die Stichprobe zu berechnen?
sei es wie es sei – mit den Punkten gleitet man zu sehr auf die inhaltliche Ebene herab/hinauf. Die zentrale Frage ist doch die Umdrehung bisheriger Sicherheitsparadigmen und die Integrität Von IT Systemen/Hausrecht/Unverletzlichkeit der Wohnung.
 

Mitglied 246615

Gast
Was ist denn das für eine Frage? die stellt sich doch überhaupt nicht. Apple ist ein privates Unternehmen, kein Akteur der öffentlichen Verwaltung. Apple Apple ist kein Verfassungsorgan, schon gar kein deutsches. Auch eine interessante Frage: muss Quellkot, der in den USA geschrieben wurde, aber in Deutschland läuft, deutsches Verfassungsrecht beachten? Ich bin da nicht mehrGanz drin, da sind gleich mehrere Fragen drin.
Der Grund der Frage steht bereits in dem Zitat von mir.

Natürlich ist Apple kein Verfassungsorgan. Apple hat aber auch keine hoheitlichen Rechte. Dem Vermieter meiner Wohnung oder den Bauunternehmen würde ich auch nicht erlauben, regelmässig meine Wohnung auf was auch immer zu durchsuchen. Wenn dort aber etwas ähnliches vertraglich geregelt wird, weise ich ihn ab, wenn er vor der Tür steht und lasse es auf einen Prozess ankommen. Das kann ich bei einem Betriebssystem von Apple nicht.

da muss man halt jemanden finden, der kein Problem damit hat, idiotische Zahlen zu nennen. Oder wie sonst sollte man es nennen, aus einer völlig unbekannten Zahl an Bildern weltweit die Stichprobe zu berechnen?
Selbstverständlich kann das Ergebnis eines Audits auch gekauft sein, aber der Auditor haftet dafür und wird sich überlegen, ob er vollkommen falsche Ergebnisse niederschreibt. Ein Audit würde die Glaubwürdigkeit gegenüber einer in den Raum gestellten Zahl auf jeden Fall erhöhen.

Einem Blinden kann man sagen, der Himmel sei rosa. Bei diesem System von Apple ist Apple der einzige sehende. Wir End-Nutzer sind alle blind! Es gibt also kaum eine Chance, dass uns jemand sagt: "Übrigens. Der Himmel ist in Wirklichkeit blau."
 
Zuletzt bearbeitet von einem Moderator:
  • Like
Reaktionen: Wuchtbrumme

Butterfinger

Kaiser Alexander
Registriert
28.04.15
Beiträge
3.933
"Außerdem prüft Apple die Fotos noch einmal händisch."
Ob das Personal dann psychologisch betreut werden muss?
Oder dem Mitarbeiter gefällt es am Ende sogar, was extrem widerwärtig wäre 🤬.

Sehr schwieriges Thema.
Das eigentliche Problem ist, dass man alle Kunden als potenzielle Pädophile betrachtet
Was ist, wenn bei Apple Pädophile arbeiten und dann genau in der Endkontrolle?
Am Ende Du, wenn Du die AGB abnickst und das musst Du bei einem Update ja machen oder kannst das Update nucht aufspielen. Damit stehen Dir aber auch alle anderen neuen Funktionen des Updates nicht zur Verfügung.
Oder Apple bringt noch ein iOS 14.8.5 und dort ist es dann auch drin 😅.

Was wäre, wenn der Nutzer sein iPhone nicht mit der Cloud synchronisiert und iMessage nicht nutzt?
 

SomeUser

Ingol
Registriert
09.02.11
Beiträge
2.084
Ob das Personal dann psychologisch betreut werden muss?
Oder dem Mitarbeiter gefällt es am Ende sogar, was extrem widerwärtig wäre 🤬.

Das ist ein Thema, dass du bei allen Menschen hast, die "fragwürdige" Inhalte kontrollieren müssen. Gibt auch Berichte über die Leute, die sich bei Facebook mit Gewaltvideos etc. abmühen - und den teilweise sehr unschönen Langzeitfolgen davon.
Das ist eben die andere Seite der Münze, wenn der Ruf laut wird, dass Inhalteanbieter nicht jeden Inhalt anzeigen sollen.

Was ist, wenn bei Apple Pädophile arbeiten und dann genau in der Endkontrolle?

Das sind eigentlich Risiken, die du mit einem 4-Augen-Prinzip im Prozess umgehst. Dass die Dichte an Pädophilen hingegen so hoch ist, dass davon dann mehrere dort sitzen ist statistisch recht unwahrscheinlich. Ist ja nicht die katholische Kirche.
 
  • Like
Reaktionen: saw und allans1976

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.675
Ist denn jemand, der 29 kinderpornographische Bilder in der iCloud speichert, kein Pädophiler? Verstehe die Untergrenze von 30 nicht.
 
  • Like
Reaktionen: ottomane

Mitglied 87291

Gast
@dtp

29 kann halt einfach so mal passieren, kennt ja bestimmt jeder.
Wirkliche Sammelleidenschaft und damit bestätigte Neigung hat man halt erst mit 30.

Die Kinder sind Apple in diesem Zusammenhang einfach scheiß egal. Kein Kind wird durch diese Methoden geschützt.
Nur Apple kann sagen, sie haben Maßnahmen ergriffen um keine Kinderpornographie mehr in der Cloud zu haben. Das wars aber auch.
 

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.675
Wirkliche Sammelleidenschaft und damit bestätigte Neigung hat man halt erst mit 30.

Ist das so? Jemand, der 30 Platten oder CDs im Regal hat, ist für mich kein Sammler. ;) Aber egal.

Ich gehe auch davon aus, dass Microsoft, Google und andere Cloud-Anbieter früher oder später etwas Ähnliches implementieren werden.
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden.
Nein, elementar ist, dass Apple und seine Mitarbeiter rein gar nichts in privaten Photos zu suchen haben.
 

smokin.shutdown

Cox Orange
Registriert
23.07.18
Beiträge
97
Naja, also da sollte man schon realistisch sein und sich die Alternative überlegen:

Wenn die Software Treffer raushaut und das ganze dann ohne Kontrolle an die Behörden übergibt, hast du dein Leben bei false positives ganz schnell ruiniert. Und zwar unrettbar.

Also wenn das überhaupt kommt, dann bitte nur und ausschließlich mit Endkontrolle durch Menschen, die sich die Treffer nochmal ansehen und gegen den angeblichen Match prüfen.

Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden.
Sonst hast irgendwann wirklich die Staatsanwaltschaft im Haus, weil du dein kleines Kind im Badezimmer auf dem Maushandtuch fotografiert hast.

Ich stelle mir gerade die Frage warum muss man denn eigentlich Bilder von seinem nackten Kind anfertigen? Bilder die es nicht gibt können nicht in „Umlauf „ geraten.
 

Mitglied 246615

Gast
Ich stelle mir gerade die Frage warum muss man denn eigentlich Bilder von seinem nackten Kind anfertigen? Bilder die es nicht gibt können nicht in „Umlauf „ geraten.
Vor allem beweist man mit solchen Beispielen, dass man nicht verstanden hat, was Apple wirklich macht. Apple macht keine Motiv-Erkennung.

Es gibt Listen von Bildern, auf denen sexueller Mißbrauch von Kindern abgebildet ist. Damit man nicht das Bild an sich als Vergleich hernehmen muss, wird aus dem Bild ein Hash erstellt. Das ist nur ein "eindeutiger" Fingerabdruck des Bildes in Form von Buchstaben und Zahlen. Der Hash kommt auf eine Blacklist. Diese ist also nur eine Textdatei und wird jedem Apple-Gerät unter iOS, iPadOS und macOS übertragen. "Eindeutig" habe ich bewußt in Klammern gesetzt, weil die Eindeutigkeit nicht immer gegeben ist.

Apple erstellt nun auf den Endgeräten für jedes Bild auf diesen ebenfalls einen Hash nach dem gleichen Verfahren, wie sie für die Bilder auf der Blacklist erstellt wurden. Dann vergleicht sie für jedes Bild auf dem Endgerät, ob der errechnete Hash auch auf der Blacklist gefunden wird. Übersteigt die Anzahl der übereinstimmenden Hashes 30 Bilder, beginnt die Meldekette.

Hash-Verfahren haben jedoch in sich bereits ein mögliches Problem. Ich habe vielleicht ein Bild auf meinem Apple-Gerät, dass zufällig den gleichen Hash erzeugt wie ein bekanntes Bild auf der Blacklist. Dass soetwas passiert ist bereits sehr unwahrscheinlich und spielt zu einem Gutteil in die geringe Fehlerqoute, die Apple nennt, hinein. Die Wahrscheinlichkeit ist so gering, dass man bisher der Meinung war, Hashes seinen eindeutig. Das ist jedoch mittlerweile für diverse Hash-Verfahren widerlegt. Und selbst noch so geringe falsche Treffer (False Positives) führen aufgrund der schieren Menge dann doch wieder zu erschreckend hohen absoluten False Positives.

Selbst wenn Hashes wirklich zu 100% eindeutig wären, besteht noch ein anderes Problem. Sie ändern sich auch, wenn das Bild verändert wird. Wird eine Kopie davon skaliert, ein Ausschnitt gewählt, der Komprimierungsfaktor geändert, das Komperessionsverfahren verändert und das Bild abgespeichert, entsteht ein neuer Hash. Sogar das Bildformat (JPEG, PNG, TIFF etc.) verändert den Hash. Wer schlau ist, verändert das Bild einfach nach einer oder mehreren der genannten Methoden uns schon wäre das Hash-Verfahren gegenüber der bearbeiteten Bilder blind.

Apple hat nun ein Verfahren entwickelt, das offenbar ein Bild in Segmente zerlegt und "normalisiert", so dass ein Bild trotz all den genannten Änderungsmöglichkeiten anhand eines Hashes oder einer Gruppe von Hashes wiedererkannt werden kann.

Das bedeutet, das Nacktfoto vom eigenen Kind beim baden oder plantschen im Pool oder im Meer wird von dem von Apple geplanten System gar nicht erkannt. Diese Angst ist aktuell unbegründet. Es wäre jedoch denkbar, dass so ein Bild von irgendjemandem auf die besagte Blacklist gesetzt wird. Wie es dort hinkommen kann, würde hier zu weit führen und ist zumindest aktuell gar nicht das Problem.

Das System von Apple ist aber auch gegenüber neuen Bildern, die sexuellen Mißbrauch von Kindern abbilden, blind. Solange, bis es einer der beteiligten Organisationen bekannt ist, ein Hash erstellt wurde, dieser auf die Blacklist kommt und die aktuelle Blacklist auf Endgeräte übertragen wurde.

Der sogenannte Dammbruch ist, dass Apple alle Geräte mit iOS 15 oder neuer, iPadOs 15 oder neuer und macOS 12 oder neuer in dieser Art untersuchen will. Das sind milliarden Geräte weltweit. Das bedeutet, alle Apple-Nutzer werden von Apple unter einen Generalverdacht gestellt. Zwar soll das Verfahren zunächst auf die USA beschränkt sein, aber eine weltweites Ausrollen ist geplant, jedoch von den jeweiligen rechtlichen Voraussetzungen abhängig. Es kann also sein, dass wir in Europa nie diese Funktion aktiviert bekommen. Ob den Amis es lieber ist als uns Europäern (oder den Bewohnern beliebiger anderer Erdteile), von dem Unternehmen, dem sie durch Kauf der Ware Vertrauen aussprechen, unter Generalverdacht gestellt zu werden, wage ich zu bezweifeln.

Aufgrund der fehlenden Motiverkennung sehen einige darin keine Durchsuchung gegeben. Ich hingegen sehe das sehr wohl als Durchsuchung an, immerhin muss ja von jedem Bild auf dem Endgerät ein Hash erstellt werden und für das Endgerät ist ein Bild oder ein Hash immer nur eine Folge von mehr oder weniger vielen Nullen und Einsen.

Tatsächlich könnte Apple mit der Begründung "sexueller Mißbrauch von Kindern" ein Verfahren massenhaft austesten wollen, das später auch für andere Zwecke eingesetzt wird. Gegen die Bekämpfung von sexuellem Mißbrauch von Kindern kann man aus moralischen Gründen nicht ein. Aber wenn man nur die moralische Brille aufhat, dann fällt es immer schwerer dagegen zu argumentieren, wenn die Gründe ausgeweitet werden.

Es ist nicht einmal ausgeschlossen, dass Strafverfolger und Geheimdienste Apple dazu "überredet" haben, weil sie wissen, nie die rechtlichen Mittel dazu per Gesetz zu bekommen. Dass dieses Vorgehen Realität ist, wissen wir seit 2012!

Man kann fragen, warum Apple das Verfahren dann öffentlich macht und nicht heimlich einführt?
Nun, Apple hat sich seit Jahrzehnten als Robin Hood zum Schutz der Privatsphäre dargestellt. Was sie jetzt machen, ist schon ein Drahtseilakt. Das heimlich einzubauen und dann erwischt zu werden, könnte das Firmenende bedeuten. Auch dem wertvollsten IT-Unternehmen geht irgendwann das Geld aus.

Für mich ist der "Drahtseilakt" sogar ein erheblicher Hinweis darauf, dass hinter der Funktion weit mehr Weltpolitik steckt, als wir uns ausmalen.
 
Zuletzt bearbeitet von einem Moderator: