Apple hält einige aufregende Dinge für Entwickler von Augmented Reality (AR) bereit. In einem neuen Bericht wird behauptet, dass ein aktualisiertes ARKit-Framework in der Lage sein wird, menschliche Posen zu erkennen. Darüber hinaus wird im WWDC 2019 angeblich Apples neue App zur visuellen Erstellung von AR-Inhalten vorgestellt, während die Entwickler ein dediziertes Software-Framework erhalten, das nur Swift für Augmented Reality bietet.
Hier ist der relevante Auszug aus dem heutigen 9to5Mac-Bericht von Guilherme Rambo:
AR auf Apples Plattformen wird in diesem Jahr bedeutende Verbesserungen erfahren, einschließlich eines brandneuen Nur-Swift-Frameworks für AR und einer Begleit-App, mit der Entwickler AR-Erlebnisse visuell erstellen können. ARKit kann menschliche Posen erkennen.
Rambo fügte hinzu, dass Spieleentwickler die Unterstützung von Gaming-Controllern mit Touchpads wie Sony DualShock für iOS 13 und macOS 10.15 sowie Stereo-AR-Headsets, die schärfere Bilder mit besserer Tiefenwahrnehmung liefern, lieben werden. Details sind spärlich, aber es scheint, dass Apple Entwicklern, die AR- und VR-Apps schreiben, mehr Optionen in Bezug auf das unterstützte Headset geben wird.
Derzeit werden für die Erstellung von AR- und VR-Inhalten das HTC Vive-Headset und SteamVR, Unity oder eine andere Entwicklungsumgebung für macOS benötigt. Vor diesem Hintergrund sollte die Unterstützung von Stereo-AR-Headsets gut mit der neuen App zur visuellen Erstellung von VR-Inhalten harmonieren.
Wir gehen davon aus, dass wir während der Keynote der WWDC 2019 am 3. Juni mehr Details erfahren werden.
Was halten Sie von diesem Bericht??
Lass es uns in den Kommentaren unten wissen.