• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

Das Ende einer iPhone-Ära in Anno 2022

Janelle

Starking
Registriert
21.09.18
Beiträge
221
Dieses Problem ist eigentlich schon weitgehend gelöst durch Tracking der Augenbewegungen.
Also ich sehe hier z.B. einen ca. 40m entfernten kahlen Baum. 20m hinter dem Baum steht ein Haus. Ob ich jetzt die Zweige, oder durch die Zweige hindurch den direkt dahinter liegenden m² des Hauses betrachte, dazu muss ich meine Augen nicht wirklich bewegen.


Man könnte ja auch den Linsenfokus tracken. Nah genug wäre man ja.
Also ich finde, man hat Schwierigkeiten etwas zu fokussieren, das man nur sehr unscharf sieht. Da weiß das Auge doch überhaupt nicht, auf welche Entfernung es sich fokussieren müsste, um den Gegenstand scharf zu sehen.
 

Ijon Tichy

Clairgeau
Registriert
21.11.06
Beiträge
3.689
Da weiß das Auge doch überhaupt nicht, auf welche Entfernung es sich fokussieren müsste, um den Gegenstand scharf zu sehen.
Na, wenn’s dein Auge nicht weiß, wer dann? Also bei mir macht mein Auge das ganz automatisch.

Oder verstehe ich dich miss?
 

Janelle

Starking
Registriert
21.09.18
Beiträge
221
Oder verstehe ich dich miss?
Nein, ich habe mich wahrscheinlich unklar ausgedrückt (oder habe überhaupt unrecht, weil ich mehr nach subjektivem Gefühl gegangen bin, als nach optischem Fachwissen). Ich hatte nur mal kurz ausprobiert: Wenn ich mir die Hand 15cm vor die Augen halte, sehe ich sie scharf, und wenn ich näher herangehe, wird sie nicht nur unscharf, sondern ich habe auch das Gefühl, sie nicht mehr richtig fokussieren zu können.
Oder vielleicht besseres Beispiel: Wenn man sehr kurzsichtig ist (das kann man als Normalsichtiger auch simulieren, indem man durch die Brille eines Weitsichtigen schaut), erscheinen ja alle Gegenstände riesengroß und verschwimmen an den Rändern. Wenn ich so z.B. ein 20m entfernt stehendes Auto ansehe, ist es ein großer, indifferenter silberner Fleck, und ich habe das Gefühl, dass der Fokus meiner Augen "umherirrt" und nicht weiß, worauf er sich einstellen soll.
Aber auch wenn das eben Gesagte Unsinn ist - ich glaube, dass Autofokusbrillen noch lange Zeit nicht in der Lage sein werden, so feine Differenzierungen mitzumachen wie z.B. einerseits Baumzweige und andererseits ein vielleicht 20m dahinter befindliches Haus.

Bis die Schnelligkeit und Genauigkeit der Linsenadaption straßenverkehrstauglich wird, werden sicher schon selbstfahrende Autos in Serie hergestellt.

Ganz andere, interessante Probleme werden in diesem Optikerforum genannt, z.B.: "Wobei es enorme Privacy-Implikationen gibt. 1. optisches Eyetracking -> Irisdaten könnten abgegriffen werden -> die Iris ist ähnlich wie ein Fingerabdruck zur eindeutigen Identifikation von Menschen zu mißbrauchen. Mit der Iris kann man einen Menschen unter millionen anderen eindeutig identifizieren. 2. Tiefen- und Szenenkameras blicken in die Umwelt --> die Privatsphäre von anderen Menschen ist in Gefahr.
Daher dürfte so eine AR-Brille eigentlich niemals online gehen. Denn alles was am Netz hängt, kann auch gehackt werden. So könnten sehr sensible Daten abfließen. Z.B. Bluetooth ist löchrig wie schweizer Käse - auf Protokollebene und auch die Firmware der Chips konnte gehackt werden"
 

Ijon Tichy

Clairgeau
Registriert
21.11.06
Beiträge
3.689
Das mit dem Datenschutz ist natürlich ein Riesenproblem, aber ich betrachte jetzt einfach mal nur die theoretischen Möglichkeiten. Ob ein Fokus-Tracking technisch überhaupt schon machbar wäre, weiß ich nicht, könnte es mir aber schon vorstellen. Man könnte z.B. vielleicht einen Infrarotstrahl verwenden, um die Linsenbrechung zu messen. Ich stelle mir das schon machbar vor.

Nein, ich habe mich wahrscheinlich unklar ausgedrückt (oder habe überhaupt unrecht, weil ich mehr nach subjektivem Gefühl gegangen bin, als nach optischem Fachwissen). Ich hatte nur mal kurz ausprobiert: Wenn ich mir die Hand 15cm vor die Augen halte, sehe ich sie scharf, und wenn ich näher herangehe, wird sie nicht nur unscharf, sondern ich habe auch das Gefühl, sie nicht mehr richtig fokussieren zu können.

Ich weiß nicht worauf du damit hinauswillst. Beziehst du dich darauf, dass die Brille so nah am Auge ist? Das ist ja aber VR-Brillen auch so und wird durch eine Linse kompensiert. Noch raffinierter wäre die direkte Projektion auf die Retina. Die Brille könnte je Auge eine Kamera haben, mit der sie die Umgebung aufnimmt, dann zu dem Bild Informationen hinzufügt und das Ergebnis direkt auf die Retina projiziert.

Ok, ich glaube nicht, dass Apple das alles schon kann. Wie gesagt, ich rede jetzt von Machbarkeit irgendwann mal. :cool:
 

Janelle

Starking
Registriert
21.09.18
Beiträge
221
Ich weiß nicht worauf du damit hinauswillst. Beziehst du dich darauf, dass die Brille so nah am Auge ist?
Nein, natürlich nicht ;). Unter dem von dir zitierten Abschnitt aus meinem Post habe ich auch ein m.E. besseres Beispiel gebracht. Ich meinte, dass wenn man (z.B. aufgrund einer starken Fehlsichtigkeit) einen Gegenstand nur sehr, sehr unscharf wahrnimmt , dass die Augen dann Mühe haben, sich überhaupt für eine Entfernung zum Fokussieren zu "entscheiden", da sie nur einen indifferenten, farbigen Fleck sehen, dessen Ränder stark mit der Umgebung verschwimmen. Der Effekt könnte ähnlich sein, wenn die Brillenlinse einen nicht gewünschten Gegenstand fokussiert, und der Gegenstand, den man eigentlich ansehen möchte, bis zur Konturlosigkeit verschwimmt. Auch wenn die Brille prinzipiell den Fokus der Augenlinsen tracken kann, sie kann das Feature ja nur anwenden, wenn die Augen sich auch tatsächlich fokussieren.
Aber egal, vielleicht habe ich da einen Denkfehler.

ich rede jetzt von Machbarkeit irgendwann mal. :cool:
Das sehe ich genauso wie du, mit Fokussierung auf weiiite Entfernung. :D
 

Ijon Tichy

Clairgeau
Registriert
21.11.06
Beiträge
3.689
Nein, natürlich nicht ;). Unter dem von dir zitierten Abschnitt aus meinem Post habe ich auch ein m.E. besseres Beispiel gebracht. Ich meinte, dass wenn man (z.B. aufgrund einer starken Fehlsichtigkeit) einen Gegenstand nur sehr, sehr unscharf wahrnimmt , dass die Augen dann Mühe haben, sich überhaupt für eine Entfernung zum Fokussieren zu "entscheiden", da sie nur einen indifferenten, farbigen Fleck sehen, dessen Ränder stark mit der Umgebung verschwimmen.

Zufällig bin ich selbst stark kurzsichtig. Mit dem Fokussieren in die Ferne hab ich trotzdem kein Problem, ich sehe halt nur nicht besonders viel. :)

Ich denke, wenn das Auge zu fokussieren versucht und die iGlasses entsprechend reagieren, dann „denkt“ das Auge ja, dass es das selbst gemacht hat. Also würde sich das vermutlich ganz natürlich anfühlen oder zumindest nicht sehr viel anders.
 

Janelle

Starking
Registriert
21.09.18
Beiträge
221
Zufällig bin ich selbst stark kurzsichtig. Mit dem Fokussieren in die Ferne hab ich trotzdem kein Problem, ich sehe halt nur nicht besonders viel. :)
Hm, ach so.

Ich denke, wenn das Auge zu fokussieren versucht und die iGlasses entsprechend reagieren, dann „denkt“ das Auge ja, dass es das selbst gemacht hat. Also würde sich das vermutlich ganz natürlich anfühlen oder zumindest nicht sehr viel anders.
Das klingt nun auch wieder logisch. Vielleicht lag mein Fokus nur daneben 😅. Man wird es sehen. Jetzt bin ich richtig gespannt auf das Ding, schade dass es vermutlich noch so lange dauert.



Ein weiteres Problem noch: Verbuggte Software-Updates sollte Apple (und jeder andere Hersteller ) sich bei der Brille lieber nicht erlauben. Das könnte, anders als beim Smartphone, zu blauen Flecken oder mehr, und zu Schadensersatzforderungen führen.
 
Zuletzt bearbeitet:

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.612
 
  • Like
Reaktionen: Ijon Tichy

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.612
Du kannst davon ausgehen, dass es sehr schnell ist, sonst würde Canon die bereits in den Neunzigern entwickelte Technik nicht wieder in eine Kamera für 6.000,- € implementieren. In den Anfängen war es aber noch nicht sehr ausgereift, weshalb Canon das Thema viele Jahre lang nicht mehr weiterverfolgt hatte.
 

Rubber Duck

Roter Eiserapfel
Registriert
16.10.16
Beiträge
1.444
Es wird kein Ende des Handys geben, es wird immer unser Begleiter bleiben Die Funktionalität ist in Summe in einem solch kleinen Gerät nicht zu ersetzen. Soll man seine Überweisungen mit einer Brille machen? Sollen wir unsere Nachrichten den ganzen Tag erzählen? Wie sollen wir was ins Forum hier schreiben?
Wie sollen wir Bilder machen? Wie will man jemandem was zeigen können was man heute über das Handy zeigt? Das ist eine schöne Zukunftsvision und es wird mit Sicherheit noch etwas kommen woran wir heute nicht denken, ich glaube nicht dass das in den nächsten Jahren passieren wird.
Schreiben können wir schon mit den Augenkontakt, funktioniert jedenfalls ganz, gut für Personen mit Beeinträchtigungen.
Mit Fotos machen, Zeichen, usw., wird es bestimmt ähnlich sein, irgendwann wird es möglich sein, wenn dies nicht auch schon möglich ist, dieser Gedanke und Wunsch, existiert ja schon, seit den Gedanken an Sience-Fiction, von der alten Zeitung-zum Heutigen Medium, zum Beispiel das erste ? Bild Telefon, war in Zurück in der Zukunft zu sehen, und dann im wirklichen Leben, und dann noch andere Sachen, die wir heute kennen, waren zuerst in Zeitungen, Zeitschriften, Comics-Film und Serien zu sehen. 😁
Zum Beispiel das erste ? Gerät, was der Vorgänger (LaserDisc-Player) vom DVD-Spieler war, war glaube ich, bin mir nicht sicher, in den Film Airport von 1977 zu sehen, jedenfalls sieht man wie eine Platte einlegt wird, und irgend wann war das nicht ca 1996-1999 kam der DVD Spieler.
Und irgendwann kommen die ganzen Sachen, die als reine Sience Fiction gelten, die es nur in den Gedanken, auf Papier oder auf den Film gibt
Anderes Beispiel Bionische ? Protesen, bzw elektronische Körper Protesen, gab es schon in Filmen und Serien wie zum Beispiel der 6 Millionen Dollar Mann und die 7 Millionen Dollar Frau, aber das Smartphone, wird es bestimmt auch weiter geben, auch wenn es zum Beispiel bestimmt die Größe, einer KK oder Stift erreicht haben wird, zusätzlich nur mit einen winzig kleinen Beamer, oder was auch immer.
Die Elektronik wird halt immer kleiner, und leistungsfähiger werden, bestimmt auch mit einen, kleinen leckeren Apfel drauf.😁👍
 
Zuletzt bearbeitet:

alba63

Friedberger Bohnapfel
Registriert
28.11.07
Beiträge
532
Soweit ich gelesen habe, werden die Berechnungen weiterhin auf dem iPhone ausgeführt (das aufgrund der Größe, Batterie und Rechenleistung dafür auch geeignet ist), die Brille wird nur eine Art Display sein. Ob sie Fehlsicht ausgleichen wird können (was die Optiker killen würde), weiß ich natürlich nicht, ob sich alle iPhone- user eine Brille ohne Sehkorrektur vors Gesicht klemmen werden, bezweifle ich auch. Allerdings stecken sich seit Jahren auch alle User Airpods ins Ohr, die wie abgesägte Kopfhörer aussehen. Man wird sehen.
Zumindest wäre das das erste "major product" seit Steve Jobs.
 
  • Like
Reaktionen: Bob___

logothetis

Erdapfel
Registriert
20.10.11
Beiträge
2
Nur gut, dass die Realität in der nahen Zukunft immer anders aussieht als geträumt.
Und somit wird es auch in 10 Jahren genau solche Smartphones geben wie heute, lediglich mit technischen Verbesserungen und interessantem Zubehör.
Dieser „Brillen Quatsch“ ist wie das „Reisen durch Wurmlöcher“ den Sciencefictionfilmen vorbehalten und vielleicht mal in hundert Jahren möglich, wenn man in der Quantenmechanik weiter ist.
Zur Zeit ist das wissenschaftlich aber nicht umsetzbar….
 

Bob___

Schweizer Glockenapfel
Registriert
18.04.17
Beiträge
1.382
Nur gut, dass die Realität in der nahen Zukunft immer anders aussieht als geträumt.
Und somit wird es auch in 10 Jahren genau solche Smartphones geben wie heute, lediglich mit technischen Verbesserungen und interessantem Zubehör.
Kann sein, muss aber nicht.

Dieser „Brillen Quatsch“ ist wie das „Reisen durch Wurmlöcher“ den Sciencefictionfilmen vorbehalten und vielleicht mal in hundert Jahren möglich, wenn man in der Quantenmechanik weiter ist.
Zur Zeit ist das wissenschaftlich aber nicht umsetzbar….
Was genau ist denn nicht umsetzbar? Weißt Du mehr als der Rest von uns?
 

landplage

Admin
AT Administration
Registriert
06.02.05
Beiträge
23.451
Mir ist noch eingefallen: Wie geht so eine automatische Augen-Focus-Erkennung mit Menschen wie mir um: Starkes Schielen mit beiden Augen, die völlig unabhängig voneinander „aus der Bahn geraten“, wobei das Auge mit der stärkeren Abweichung das „Führungs-Auge“ ist. Räumliches Sehen gibt es bei mir nicht, die Info des „Nicht-Führungs-Auges“ wird vom Gehirn unterdrückt, auch wenn es direkt auf das Ziel gerichtet ist. Mit Willenskraft kann ich für kurze Zeit steuern, welches Auge aktiv genutzt wird.
Das ist dann echt eine Herausforderung für eine KI. Mein Gehirn schafft das spielend in Echtzeit.
 

Bob___

Schweizer Glockenapfel
Registriert
18.04.17
Beiträge
1.382
Und was wäre, wenn man im Setup einer AR Brille, das “Führungsauge“ einstellt?
 

landplage

Admin
AT Administration
Registriert
06.02.05
Beiträge
23.451
Und was wäre, wenn man im Setup einer AR Brille, das “Führungsauge“ einstellt?
Das springt wild zwischen den Augenwinkeln hin und her. Also: Ich schaue auch meinen Gegenüber an, wenn die Pupille ganz nach rechts oder links weist. Es kann aber auch sein, dass ich gerade meine Katze aus dem Augenwínkel beobachte - bei identischer Stellung der Pupille. Mein Gehirn weiß ja, was ich sehe bzw. sehen will und holt sich dann irgendwie das richtige Bild.

In bestimmten Situationen (ich habe da noch kein Muster gefunden) übernimmt plötzlich das andere Auge, das ebenfalls völlig unabhängig vom avisierten Objekt positioniert ist.
Das wäre echt mal eine Herausforderung für eine KI...
 

Thaddäus

Golden Noble
Registriert
27.03.08
Beiträge
18.387
Zu dem Thema hatte ich hier schonmal was geschrieben.

Def. wird es in 10J das iPhone in der bekannten Form nicht mehr geben. Wie das AR Gerät das die Funktion des iPhones übernehmen wird dann aussieht 🤷‍♂️... könnte aber ne Brille sein.

Ich sehe bei einer AR Brille ein Problem, welches in vielen Ländern zum Thema werden würde: Sichtfeldverdeckung im Strassenverkehr.

Selbst HUDs unterliegen die genauen Regularien, bevor sie in den Ländern homologiert werden können.
 

Bob___

Schweizer Glockenapfel
Registriert
18.04.17
Beiträge
1.382
Ich sehe bei einer AR Brille ein Problem, welches in vielen Ländern zum Thema werden würde: Sichtfeldverdeckung im Strassenverkehr.

Selbst HUDs unterliegen die genauen Regularien, bevor sie in den Ländern homologiert werden können.
Wie verhält es sich denn bei transparenten AR-Einblendungen? Erlaubt, oder ebenfalls eingeschränkt?