Auf dem iPhone mag der Effekt noch gar nicht mal so groß ausfallen, spätestens bei einem FaceTime-Anruf mit dem Mac dürftet ihr es aber schon einmal festgestellt haben: Schaut man seinen Gesprächspartner auf dem Monitor an, macht es den Anschein, als würde man ihn gar nicht wirklich ansehen. Logisch, denn dafür müsste man direkt in die Kamera schauen, die sich oberhalb des Bildschirms befindet.
Genau dieses Problem geht Apple mit einer neuen Funktion in der dritten Beta von iOS 13 an. FaceTime Attention Correction nennt sich das neue Feature, das bislang nur für das iPhone XS und iPhone XS Max verfügbar ist.
Was genau diese FaceTime Attention Correction macht, ist schnell erklärt: Sieht korrigiert die Position eurer Augen, so dass es den Anschein macht, ihr würdet euren Gesprächspartner direkt anschauen. Quasi so, als hättet ihr eure Augen direkt auf die Kamera gerichtet.
Apple greift für diesen Trick auf ARKit und die TrueDepth-Kamera des iPhones zurück, um die Position des Auges per Software zu verändern. Ein ziemlich einfacher, aber auch genialer Trick, der im folgenden englischsprachigen Video noch einmal ausführlich erklärt wird.
Schon ein wenig gruselig, jetzt sind es die Augen später der Hintergrund und dann wird der gesamte Kopf ersetzt
Das MacBook von 2006 konnte über das Programm Photo Both schon Hintergründe komplett ersetzen ? nur damals nicht mit AR ?
Naja gut dann weiß man jetzt wie gut ich mich im Apple Kosmos auskenne?
Eine Sache mehr die einem das Denken abnimmt. Bisher musste man noch darauf achten, tatsächlich in die Kamera zu schauen, damit es für das Gegenüber nicht so aussieht, als ob man permanent an ihm vorbei schaut – reine Höflichkeitsgeste. Künftig muss man also weniger mitdenken und weniger höflich sein. Eines Tages, wenn Autos komplett alleine fahren und das Essen automagisch auf den Teller repliziert wird, konzentrieren sich die Menschen nur noch aufs Kauen und auf das wieder Ausscheiden. Das Denken übernehmen Maschinen. ?
Ich glaube, dass du dann die Videotelefonie anders wahrnimmst. Denn wenn beide wie du sagst in die Kamera schauen, sieht keiner von beiden das Gegenüber richtig. Dann kann man sich das auch sparen. Für mich macht es Sinn sich das Bild anzusehen, denn dafür hält der Andere ja sein Gesicht vor die Kamera. Und dann ist die Augenkorrektur eine coole Funktion, die es für beide „natürlicher“ macht, denn beide schauen sich dann ja tatsächlich an bei sprechen 😉
@Stan: Was Du schreibst stimmt schon. Aber die meisten tun es eh nicht, insofern videofonieren die meisten mit jemandem der vorbei guckt ? Es kommt auch auf den Abstand zwischen Display und Kamera an. Beim iPhone kann man durchaus beides gleichzeitig im Blick behalten. Aber schon mal mit jemandem videofoniert, der die Webcam auf oder neben dem 32-zöller hat?
Ich mache es so, dass ich darauf achte, wenigstens regelmäßig mal in die Kamera zu schauen und das Gerät (meistens iPhone, selten iPad) günstig zu halten. Also die eigene Ansicht mit beachten und ggf. korrigieren. Erfordert halt aktives Mitdenken und Bemühen.
Manche halten das Telefon unten in der Hand, dann kannst Du beim Sprechen seinen Hals von unten betrachten.
Wieder nur den ganz neuen iPhone vorenthalten. Ganz toll Apple. Das soll jetzt ein Grund sein von meinem Xer umzusteigen??? ??♂️??
Ich konnte diesen Effekt kaum erkennen. Also wunder wirkt es nicht – zumindest nicht bei mir
Gebe Dir voll recht. Hab eigentlich ein aha Effekt erwartet (wie auch immer dies dann sauber gehen sollte), aber wirklich viel hab ich da nicht gesehen. Nuancen vielleicht. Aber DAS Feature ist es für mich jetzt wirklich nicht.
Ich benutzen am Computer den Eye Spotter ( http://www.eyespotter.de), damit ich Augenkontakt halten kann. Erstaunlich was für einen Unterschied das macht.