iOS 11 enthält natürlichere und ausdrucksstärkere synthetische Männer- und Frauenstimmen für Siri, die die neuesten Fortschritte im Bereich des maschinellen Lernens und der künstlichen Intelligenz nutzen, um Intonation, Tonhöhe, Betonung und Tempo beim Sprechen anzupassen.
Audio-Snippets am Ende eines Posts im Apple Machine Learning-Blog zeigen, wie sich Siris Stimme mit jeder neuen großen iOS-Version von iOS 9, 10 und 11 verändert hat. Unser eigener Andrew O'Hara hat ein kleines Video erstellt, in dem Sie hören können, wie Siris Stimme hat sich im Laufe der Jahre weiterentwickelt.
Abonniere iDownloadBlog auf YouTube
Apple hat Siris Stimme in den letzten Jahren definitiv verbessert.
Die neuen Sprachbeugungen in iOS 11 klingen wirklich gut, aber es gibt Fälle, in denen die falschen Wörter von etwas gebräuchlichen Phrasen betont werden.
Da Siri jetzt maschinelles Lernen und künstliche Intelligenz einsetzt, werden die neuen Stimmen noch besser klingen, wenn Apple mit der Zeit Fortschritte macht.
Hier ist ein Auszug aus Apples Blog zum maschinellen Lernen:
Für iOS 11 haben wir ein neues weibliches Sprachtalent ausgewählt, um die Natürlichkeit, Persönlichkeit und Ausdruckskraft von Siris Stimme zu verbessern. Wir haben Hunderte von Kandidaten bewertet, bevor wir den besten ausgewählt haben. Dann haben wir über 20 Stunden Sprache aufgenommen und eine neue TTS-Stimme mit der neuen TTS-Technologie auf der Basis von Deep Learning erstellt. Infolgedessen klingt die neue US-englische Siri-Stimme besser als je zuvor.
iOS 9 und iOS 10 stellten beide eine gute Verbesserung für Siris Stimme dar, aber iOS 11 war ein großer Schritt nach vorn mit einer besseren Aufeinanderfolge von Sätzen und Wendungen, würden Sie das nicht sagen?