• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

"FaceTime Attention Correction": iOS 13 sorgt für direkte Blicke in die Kamera

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.140
"FaceTime Attention Correction": iOS 13 sorgt für direkte Blicke in die Kamera
facetime-attention-correction-700x403.jpg



Eine bislang von Apple nicht dokumentierte Funktion in der aktuellen dritten Betaversion von iOS 13 macht gerade die Runde: "FaceTime Attention Correction". Hinter dem etwas sperrigen Titel steckt eine durchaus kluge Funktion, die ein wenig nach Science-Fiction klingt. Jene unter euch, die häufig Videotelefonieren, kennen das mit Sicherheit: Der eigene Blick (und auch der des Gegenübers) ist nicht direkt in die Kamera gerichtet, sondern immer ein wenig darunter – eben auf den Bildschirm. Das soll die neue iOS-13-Funktion nun ändern.

Guys - "FaceTime Attention Correction" in iOS 13 beta 3 is wild.

Here are some comparison photos featuring @flyosity: https://t.co/HxHhVONsi1 pic.twitter.com/jKK41L5ucI

— Will Sigmon (@WSig) 2. Juli 2019


Digitale Korrektur der Blickrichtung in FaceTime


Denn mit Hilfe von ARKit wird durch die optionale "FaceTime Attention Correction", die in den Einstellungen aktiviert und auch abgeschaltet werden kann, die Blickrichtung digital korrigiert. Die Augen sind dann direkt in die Kamera gerichtet. Notwendig dafür scheint das TrueDepth-Kamerasystem zu sein, dessen Tiefeninformationen für die neue Funktion benötigt werden. Derzeit ist die Funktion allerdings nur auf den neuesten iPhone-Modellen – iPhone XS, iPhone XS Max und iPhone XR – verfügbar. Das iPad Pro 2018 und das iPhone X sind, derzeit noch, ausgenommen.

How iOS 13 FaceTime Attention Correction works: it simply uses ARKit to grab a depth map/position of your face, and adjusts the eyes accordingly.

Notice the warping of the line across both the eyes and nose. pic.twitter.com/U7PMa4oNGN

— Dave Schukin (@schukin) 3. Juli 2019



Via MacRumors
 

Mokotschombo

Leipziger Reinette
Registriert
05.03.15
Beiträge
1.782
Ganz nett, wird bestimmt anfangs viele kleine gruselige Fehler geben.
 

Chakobo

Martini
Registriert
13.11.08
Beiträge
659
Das mit Deep Fake zu vergleichen halte ich für arg übertrieben. Ist eine nettes Feature welches die Videotelefonie angenehmer macht. Nicht mehr und nicht weniger.
 
  • Like
Reaktionen: echo.park

u0679

Moderator
AT Moderation
Registriert
09.11.12
Beiträge
7.349
Wenn es richtig funktioniert finde ich es klasse. Das beim Videotelefonieren der Gesprächspartner einen nie ansieht ist schon nervig.
 

Mitglied 105235

Gast
Wenn es richtig funktioniert finde ich es klasse. Das beim Videotelefonieren der Gesprächspartner einen nie ansieht ist schon nervig.
Naja, eigentlich sieht er einen immer an, denn er schaut ja auf das Display runter und eben nicht in die Kamera.
 

giesbert

Hibernal
Registriert
20.09.14
Beiträge
1.998
"Deep Fake" ist natürilch ein Witz, aber die Richtung find ich bedenklich: Jetzt korrigieren wir den Blickwinkel, sieht doch viel freundlicher aus. Im nächsten Upate helfen wir dann mit ein paar Weichzeichnern nach, ist doch viel hübscher. Dann ändern wird den Hintergrund ... ach ne, das gibt's ja schon längst.

Ich halte davon gar nichts. Zumal man es, vermutlich, nicht wird abschalten können.
 

Mitglied 105235

Gast
Und das ist dann weniger nervig, wenn du weißt, dass er immer noch nicht in die Kamera schaut, aber jetzt sieht es wenigsten so aus? Ich weiß ja nicht.
Es wissen die Leute die sich mit solchen News beschäftigen, aber die Restlichen 98% der Anwender wissen das doch nicht.
 

wavelow

Akerö
Registriert
09.09.14
Beiträge
1.818
Ganz nett aber wie hier schon gesagt wurde: Der Anfang einer langen möglichen Manipulationskette.
Danach kommt die Lächeln Funktion die dem Gegenüber immer suggeriert man schaut freundlich. Bis irgendwann die ganze Person einfach gegen eine Beliebige getauscht werden kann.
 

giesbert

Hibernal
Registriert
20.09.14
Beiträge
1.998
DeepFake basiert auf conditinal GANs, das hier sind vermutlich lediglich Deformationen aufgrund Keypoints (z.B. SIFT), eventuell mit einem CNN.
Das ist mir schon klar, „Deep Fake“ war auch nicht ernst gemeint. Was nichts daran ändert, dass ich bei dieser Entwicklung sehr skeptisch bin. Bill Gates hat mal die Vision propagiert, dass wir uns bei Videotelefonie in einen realistischen Avatar verwandeln können und dass das doch ganz toll sei. Nein, ist es nicht, dergleichen zerstört die Grundlage jeder Kommunikation. Und nicht nur das, aber führt hier zu weit, und auf dem iPhone mag ich jetzt nicht so viel tippen ;).
 
  • Like
Reaktionen: Freddy K.

Chakobo

Martini
Registriert
13.11.08
Beiträge
659
DeepFake basiert auf conditinal GANs, das hier sind vermutlich lediglich Deformationen aufgrund Keypoints (z.B. SIFT), eventuell mit einem CNN.
Genial, solche Beiträge. Ein Satz mit drei technischen Abkürzungen, die 99% der Leser nicht mal ausgeschrieben verstehen. Aber wenigstens das Insider-Wissen zur Schau getragen...
 

GunBound

Rote Sternrenette
Registriert
23.06.05
Beiträge
6.074
Sorry, dass mein Post etwas provokativ herübergekommen ist – war keine Absicht. Sobald wieder Zeit da ist, werde ich die Sache versuchen zu erklären. Bis dahin helfen vllt. auch ein paar Paper dazu:
 

Chakobo

Martini
Registriert
13.11.08
Beiträge
659
@GunBound danke für die Literatur!
Das Video ist ja richtig verrückt. Ein wenig beängstigend ist es schon, wie weit die Technik in dem Bereich ist. SciFi in der Realität.