- Registriert
- 28.10.12
- Beiträge
- 2.300
Mit iOS 8 fügt Apple einige neue Funktion zu den Core Location-Frameworks hinzu, wodurch es Entwicklern ermöglicht wird, sehr genaue Standortdaten auch innerhalb von Gebäuden abzufragen. Das System zieht dabei die angefallenen Daten der Bewegungssensoren heran, die zum Beispiel durch den M7-Chip im iPhone 5s aufbereitet und aufgezeichnet werden. Bis jetzt erfolgt die Ermittlung des aktuellen Aufenthaltsortes lediglich über die Mobilfunknetzverbindung, WLAN-Netzwerke sowie das relativ genaue GPS – zumindest unter freiem Himmel. Zwar lassen die WLAN- und Mobilfunkverbindungen zu, dass der mögliche Standort auf einen überschaubaren Radius beschränkt wird falls GPS nicht zur Verfügung steht, Funktionen wie die Navigation innerhalb von Gebäuden sind allerdings nicht möglich.[prbreak][/prbreak]
Auch weiterhin wird iOS in erster Linie den Standort über die drei üblichen Verbindungen ermitteln. Sobald der Nutzer einen Ort betritt, für den die Indoor-Navigation freigeschaltet wurde, scannt das iPhone oder iPad die WLAN-Verbindungen und schaltet die internen Sensoren hinzu. Dadurch können sehr exakte Daten ermittelt werden – zum Beispiel wo man sich gerade befindet und wie schnell man sich fortbewegt. In einem solchen Fall wird der GPS-Chip abgeschaltet um den Akku des Gerätes nicht unnötig zu belasten.
Entwickler haben dadurch über nur eine Programmierschnittstelle Zugriff auf alle relevanten Daten. Da die Ermittlung des Standortes über das Betriebssystem abgewickelt wird, sparen sich Entwickler eine mühsame Implementierung einer eigenen Lösung, indem sie selbst Sensordaten heranziehen um den Aufenthaltsort zu bestimmen. iOS 8 ist sogar in der Lage, Stockwerke präzise anzugeben – bspw in einem Einkaufszentrum.
Bisher hat Apple diese Funktion an drei Orter freigeschaltet. Neben der California Academy of Science in San Francisco gehört auch das Westfield San Francisco Center sowie der San Jose International Airport dazu. In den nächsten Monaten wird Apple diese Anzahl wohl weiter ausbauen. Über die Entwickler-Kanäle des Konzerns können sich interessierte Verantwortliche von Örtlichkeiten registrieren und erhalten von Apple Unterstützung, um alle benötigten Daten liefern zu können. Bisher ist noch unklar, welche Daten der kalifornische Konzern erhebt.
via 9to5mac
Auch weiterhin wird iOS in erster Linie den Standort über die drei üblichen Verbindungen ermitteln. Sobald der Nutzer einen Ort betritt, für den die Indoor-Navigation freigeschaltet wurde, scannt das iPhone oder iPad die WLAN-Verbindungen und schaltet die internen Sensoren hinzu. Dadurch können sehr exakte Daten ermittelt werden – zum Beispiel wo man sich gerade befindet und wie schnell man sich fortbewegt. In einem solchen Fall wird der GPS-Chip abgeschaltet um den Akku des Gerätes nicht unnötig zu belasten.
Entwickler haben dadurch über nur eine Programmierschnittstelle Zugriff auf alle relevanten Daten. Da die Ermittlung des Standortes über das Betriebssystem abgewickelt wird, sparen sich Entwickler eine mühsame Implementierung einer eigenen Lösung, indem sie selbst Sensordaten heranziehen um den Aufenthaltsort zu bestimmen. iOS 8 ist sogar in der Lage, Stockwerke präzise anzugeben – bspw in einem Einkaufszentrum.
Bisher hat Apple diese Funktion an drei Orter freigeschaltet. Neben der California Academy of Science in San Francisco gehört auch das Westfield San Francisco Center sowie der San Jose International Airport dazu. In den nächsten Monaten wird Apple diese Anzahl wohl weiter ausbauen. Über die Entwickler-Kanäle des Konzerns können sich interessierte Verantwortliche von Örtlichkeiten registrieren und erhalten von Apple Unterstützung, um alle benötigten Daten liefern zu können. Bisher ist noch unklar, welche Daten der kalifornische Konzern erhebt.
via 9to5mac