Bloomberg berichtete heute Morgen, dass Apple an einem 3D-Sensor auf der Rückseite arbeitet, der sich von der TrueDepth-Kamera unterscheidet und die Augmented-Reality-Funktionen und die Tiefenkartierung verbessern würde.
Die TrueDepth-Kamera erstellt ein dreidimensionales Netz des Gesichts eines Benutzers, indem ein Muster von 30.000 Infrarotpunkten darauf projiziert wird. Unter Ausnutzung eines strukturierten Lichtansatzes misst das System dann die Verzerrung jedes Punktes, um ein 3D-Bild zur Authentifizierung zu erstellen.
Der geplante rückseitige Sensor für iPhones 2019 soll eine als Flugzeit bekannte Technik nutzen, die die Zeit berechnet, die ein Infrarotlichtstrahl benötigt, um von umgebenden Objekten abzuprallen, um ein dreidimensionales Bild von zu erstellen die Umgebung.
"Es wird erwartet, dass das Unternehmen das TrueDepth-System beibehält, sodass künftige iPhones über 3D-Erkennungsfunktionen für die Vorder- und Rückseite verfügen", fügte der Bericht hinzu.
Ein hinterer Sensor würde anspruchsvollere Augmented-Reality-Apps, eine genaue Tiefenkartierung und eine zuverlässigere Verfolgung ermöglichen. ARKit kombiniert derzeit Rohdaten von Kameraeinspeisung und Bewegungsdaten von Onboard-Sensoren, um flache Oberflächen zu erkennen und virtuelle Objekte zu verfolgen, die über der realen Welt liegen. Es hat jedoch mit vertikalen Ebenen wie Wänden oder Fenstern zu kämpfen.
Wenn beispielsweise ein digitaler Tiger hinter einen echten Stuhl tritt, wird der Stuhl immer noch hinter dem Tier angezeigt, wodurch die Illusion zerstört wird. Ein hinterer 3D-Sensor würde dem abhelfen.
"Während der Ansatz mit strukturiertem Licht erfordert, dass Laser sehr genau positioniert werden, beruht die Flugzeittechnologie stattdessen auf einem fortschrittlicheren Bildsensor", schrieben die Autoren Alex Webb und Yuji Nakamura. "Das könnte die Montage von Flugzeitsystemen bei hohen Stückzahlen vereinfachen."
Angeblich hat Apple Gespräche mit einigen Lieferanten aufgenommen, die den neuen Sensor bauen würden, darunter Infineon, Sony, STMicroelectronics und Panasonic. Interessanterweise hat Google im Rahmen seines 2014 vorgestellten Projekts Tango mit Infineon an der Tiefenkartierung gearbeitet.
Sollten zukünftige iPhones sowohl über 3D-Erkennungsfunktionen für die Vorder- als auch für die Rückseite verfügen??
Ton aus in den Kommentaren!