Wie das von iPhone 8 gemunkelte biometrische Scannen des Gesichts Touch ID ersetzen könnte

Der renommierte Apple-Analyst Ming-Chi Kuo von KGI Securities prognostizierte, dass das iPhone 8 Touch ID durch fortschrittliche Sensoren ersetzen würde, die in der Lage sind, das eigene Gesicht mit sehr hoher Genauigkeit zu erkennen. Der JPMorgan-Analyst Rod Hall bestätigte den Bericht von Kuo und spekulierte, dass die Gesichtserkennung einen nach vorne gerichteten 3D-Sensor verwenden würde.

Für viele Menschen war dies eines der härteren iPhone 8-Gerüchte, die es zu schlucken gilt. Wie würde das iPhone 8 den Benutzer mitten in der Nacht authentifizieren? Oder in völliger Dunkelheit? Mit Touch ID können Sie Ihr iPhone entsperren, ohne nachzusehen, während für die Gesichtserkennung der Sensor erforderlich ist. Dies ist eine erhebliche Unannehmlichkeit.

In einigen Berichten wurde versucht, etwas Licht in das Thema zu bringen, um die Grundlagen des Scannens von 3D-Bewegungen und -Objekten zu erläutern und zu erläutern, wie Apple 3D-Sensoren in iPhone 8 einsetzen könnte.

Denken Sie nicht mehr an die Gesichtserkennung in Bezug auf die Frontkamera Ihres iPhones.

Dieser Ansatz, der von den Trusted Face- und Windows Hello-Funktionen von Android verwendet wird, ist in Situationen mit schlechten Lichtverhältnissen nicht sehr zuverlässig und führt nicht zu den gewünschten Ergebnissen in Bezug auf die Fehlerrate.

Touch ID hat das Potenzial einer 1: 50.000-Fehlerrate. Laut Hall wäre das biometrische Scannen von Gesichtern im iPhone 8 weitaus genauer als mit Touch ID und sicherer für Apple Pay, während es unter nassen Bedingungen besser funktioniert.

Wie Sie wissen, ist Touch ID mit nassen Fingern nicht sehr zuverlässig.

Der Analyst geht davon aus, dass das iPhone 8 über 3D-Lasersensoren verfügt, mit denen es seine Umgebung abbilden, hochpräzise 360-Grad-Scans von Objekten aus der realen Welt erstellen und das Gesicht des Benutzers auch bei schlechten Lichtverhältnissen sehr genau scannen kann. Es wird allgemein angenommen, dass Apples Sensor auf der Technologie von Primesense basiert, einem israelischen Startup, das Apple im November 2013 für 350 Millionen US-Dollar erworben hat.

Hier kommt die mit Submillimeter-Genauigkeit bewertete Primesense-Technologie zum Einsatz.

Primesense beschäftigte rund 150 Mitarbeiter in Tel Aviv und auf der ganzen Welt.

Das Startup war maßgeblich an der Entwicklung der Kinect-Sensortechnologie von Microsoft beteiligt, bevor der Apple-Deal und dessen Sensoren in Googles modularem Smartphone namens Project Tango zum Einsatz kamen.

Ein 3D-Sensor benötigt eine LED oder Laserdiode mit sehr geringem Stromverbrauch, einen Lichtfilter zur Rauschreduzierung und einen leistungsstarken Bildsignalprozessor, um die Daten so schnell wie möglich zu verarbeiten.

Zusätzlich zum biometrischen Scannen des Gesichts könnte das iPhone 8 (mit der richtigen Software) die Primesense-Technologie für eine Reihe anderer Dinge nutzen, wie interaktives Spielen, Augmented Reality, Indoor-Mapping, Einzelhandel, 3D-Scannen und -Drucken, Größenanpassung von Kleidung, Heimwerkermessungen und so weiter.

Juli Clover von MacRumors erklärte kürzlich, dass Primesense eine Technik namens Light Coding für die 3D-Tiefenerfassung einsetzt, bei der eine Lichtquelle im nahen Infrarotbereich ein unsichtbares Licht in einen Raum oder eine Szene projiziert. Ein separater Bildsensor liest dann das IR-Licht und erfasst es zusammen mit einer Reihe synchronisierter Bilder.

„Die vom IR-Licht erzeugten Infrarotmuster, die eine Tiefenerfassung ermöglichen, werden dann von den Chips des Unternehmens entschlüsselt, um ein virtuelles Bild einer Szene oder eines Objekts zu erstellen“, schrieb sie.

Das Primesense-basierte 3D-Laserscanning-Modul, das möglicherweise auf dem iPhone 8 angezeigt wird, könnte eine miniaturisierte Version eines LiDAR-Mapper oder eines Entfernungsmessers sein, erklärt AppleInsider. Für diejenigen, die sich fragen, ist LiDAR (oder Light Detection and Ranging) ähnlich wie Radar, jedoch mit Lasern. Die laserbasierte Technologie wird in selbstfahrenden Fahrzeugen ua für hochauflösende Kartierungen eingesetzt.

LiDAR wird vom Militär auch häufig in Kampfmittel-Leitsuiten eingesetzt.

Die Integration des Lasers und des Sensors wurde in einer Präsentation im Dezember von Apples maschinellem Lernleiter Russ Salakhutdinov hervorgehoben, der sich mit Apples Forschungen zur künstlichen Intelligenz zur „volumetrischen Erkennung von LiDAR“ oder zum Messen und Identifizieren von Objekten in Reichweite mit Lasern befasste.

"Das Erstellen kleiner, kostengünstiger 3D-Scanmodule bietet eine interessante Anwendung, die weit über Smartphones hinausgeht", schrieb JPMorgan's Hall. "Letztendlich glauben wir, dass diese Sensoren wahrscheinlich auf Plattformen mit automatischem Fahren sowie in vielen anderen Anwendungsfällen auftreten werden."

Das Scannen im Gesicht würde schätzungsweise 10 oder 15 US-Dollar pro iPhone 8-Gerät kosten.


Das 3D-Laserscanning-Modul des iPhone 8 wird wahrscheinlich eher auf einer gestapelten optischen Säule auf Waferebene als auf einem herkömmlichen Tubuslinsendesign basieren.

Apple besitzt derzeit einige Patente im Zusammenhang mit Primesense. Zum Beispiel verspricht ein Kinect-ähnliches Patent, Macs und Apple TVs mit dedizierter Bewegungssensor-Hardware auszustatten. In einem weiteren Patent wird die Verwendung von Primesense-ähnlichen Bewegungssensoren beschrieben, um Gesten zu erkennen, die nur über den Sperrbildschirm des Benutzers Zugriff auf bestimmte iOS-Apps-Gruppen bieten.

Ein weiteres an Apple vergebenes Patent mit dem Titel "Virtuelle Tastatur für eine nicht taktile dreidimensionale Benutzeroberfläche" basiert auf der Primesense-Technologie, mit der Benutzer auf einer virtuellen 3D-Tastatur tippen können, indem sie einfach ihre Hände oder Finger bewegen, so wie die Sensoren dies "sehen" würden Raum zwischen Benutzer und Display.

Wie das Wall Street Journal bereits im November 2013 erklärte, könnte die Motion-Sensing-Technologie von PrimeSense zur Steuerung von Gesten sogar zur Verbesserung von Apple Maps eingesetzt werden. "Früher als später werden unsere Telefone Scans von realen Räumen abrufen, die wir besuchen möchten oder die sich möglicherweise nähern", heißt es in dem Bericht. "Diese zweidimensionalen Karten werden sehr veraltet sein."

Mit anderen Worten, Apple könnte PrimeSense-Sensoren in iPhone 8 theoretisch verwenden, um dreidimensionale Darstellungen der Benutzerumgebungen aus der Masse zu beziehen. Vor der Unterzeichnung gibt es auch dieses Patent, das die Verwendung von Tiefenerkennungs-LiDAR-Sensoren für die 3D-Bildgebung und die Erkennung von Gesichtsgesten umreißt.

Zusammenfassend ist festzuhalten, dass die Primesense-Technologie eindeutig für das Gehirn von Apple entwickelt wurde. Die Frage ist, ob dieses Zeug rechtzeitig für das iPhone 8 einsatzbereit ist?

Apples Finanzvorstand Luca Maestri sagte Anfang dieser Woche, dass Chips und Sensoren zu den „strategischsten“ und „wichtigsten“ Investitionen von Apple gehören und einen wertvollen Teil seines geistigen Eigentums ausmachen.

Was halten Sie von Primesense, iPhone 8 und dem Scannen von Gesichtern anstelle von Touch ID??

Image iDropNews