Apple nimmt an der weltweit größten Konferenz für maschinelles Lernen teil und stellt neue ML-Ingenieure ein

Apple hat am Donnerstag über seinen Blog im Machine Learning Journal bekannt gegeben, dass es an NeurIPS oder der Konferenz über neuronale Informationsverarbeitungssysteme teilnehmen wird, die nächste Woche vom 2. bis 8. Dezember in Montréal, Kanada, stattfindet.

Auf der NeurIPS wird es einen Stand mit Experten für maschinelles Lernen aus dem gesamten Unternehmen geben. In der Stelle werden 137 offene Stellen in den verschiedenen Bereichen des maschinellen Lernens ausgeschrieben, darunter künstliche Intelligenz, Bildverarbeitung, Datenwissenschaft und vertieftes Lernen, Infrastruktur für maschinelles Lernen, Stärkung des Lernens, Sprachtechnologien usw..

Um sich auf diese Stellen zu bewerben, besuchen Sie die Jobs-Website von Apple.

Der Technologiekonzern Cupertino verbot seinen Wissenschaftlern des maschinellen Lernens und der künstlichen Intelligenz, ihre Ergebnisse zu veröffentlichen oder an Fachkonferenzen teilzunehmen. Dies änderte sich jedoch mit dem Erscheinen des Blogs des Machine Learning Journal im Juli 2017.

Seit einigen Jahren entwickelt Apple den Hardware-Stack und den Halbleiter-Stack unter Berücksichtigung des maschinellen Lernens. Die iPad-Profis von 2018 und die letzten beiden iPhone-Generationen haben enorm von Apples dedizierter Hardware für maschinelles Lernen, der so genannten Neural-Engine, profitiert, die schwere Rechenaufgaben wie Bild- und Objekterkennung, Sprachanalyse, künstliche Intelligenz, Szenenanalyse und mehr erheblich beschleunigt.

Die Neural Engine ist in die Chips der A-Serie von Apple integriert, beginnend mit dem letztjährigen A11 Bionic. Der diesjährige A12 Bionic verfügt über eine noch schnellere Neural Engine-Hardware, mit der bis zu fünf Billionen Anweisungen pro Sekunde ausgeführt werden können. Dies ermöglichte eine bis zu zehnmal schnellere Bild- und Szenenanalyse im Vergleich zum A11 Bionic-Chip und ermöglichte erweiterte Funktionen für Computerfotografie und Bildgebungsfunktionen wie Echtzeit-Tiefenkontrolle und Smart HDR.

Auf iPhones ohne die Neural Engine greift iOS für diese Aufgaben auf die CPU und die GPU zurück.

Bereits im Sommer stellte Apple den erfahrenen Google-Veteranen und ehemaligen Chef von Search und AI, John Giannandrea, ein und fusionierte seine Core ML- und Siri-Teams.