Als Reaktion auf Datenschutzbedenken, die vor einigen Tagen in einem Artikel der britischen Zeitung The Guardian geäußert wurden, hat Apple das Siri-Bewertungsprogramm weltweit vorübergehend ausgesetzt und erklärt, dass ein bevorstehendes iOS-Software-Update seinen Kunden neue Steuerungsmöglichkeiten bietet, damit sie entscheiden können, ob sie dies möchten gerne am benotungsprozess teilnehmen oder nicht.
Apple gab diese Erklärung an Matthew Panzarino von TechCrunch weiter:
Wir sind bestrebt, ein großartiges Siri-Erlebnis zu bieten und gleichzeitig die Privatsphäre der Benutzer zu schützen. Während wir eine gründliche Überprüfung durchführen, setzen wir die Siri-Einstufung weltweit aus. Darüber hinaus haben Benutzer im Rahmen eines zukünftigen Softwareupdates die Möglichkeit, an der Bewertung teilzunehmen.
Das Guardian-Geschäft hat die Tatsache beleuchtet, dass Apple Vertragspartner beauftragt, Siri bei der Qualitätskontrolle zu unterstützen, die es als Grading bezeichnet. Ein winziger Teil der Audioaufnahmen der Interaktionen mit Siri wird für kurze Zeit auf Servern gespeichert, um Apple bei der Verbesserung des Service zu unterstützen.
Panzarino erklärt:
Der Vorgang, bei dem ein Audio-Snippet einige Sekunden lang an interne Mitarbeiter oder Vertragspartner gesendet wird, um es zu bewerten, entspricht im Wesentlichen dem Industriestandard. Audioaufzeichnungen von Anfragen an Amazon- und Google-Assistenten werden ebenfalls von Menschen überprüft.
Apple behauptet, es könne ein Prozent der täglichen Anfragen für das Bewertungsprogramm auswählen.
Diese Audio-Snippets enthalten keine Namen, Orte und Apple-IDs von Personen. In seiner Geschichte zitierte der Guardian Whistleblower, die behaupten, dass einige der Audio-Schnipsel, die Auftragnehmer zu überprüfen haben, persönliche Informationen, Audiodaten von Personen mit Geschlecht und andere Details wie Finanzen enthalten könnten, die identifizierbar sind.
Dies kann ungeachtet des Prozesses geschehen, den Apple zur Anonymisierung der Aufzeichnungen verwendet, da es unmöglich ist, zu steuern, was Personen während ihrer Siri-Interaktionen sagen. Zwar wird in den Nutzungsbedingungen von Apple ausdrücklich darauf hingewiesen, dass Sie durch die Verwendung der Siri oder Dictation-Funktionen der Übertragung, Erfassung, Wartung, Verarbeitung und Verwendung dieser Informationen, einschließlich Ihrer Spracheingaben und Benutzerdaten, durch Apple und seine Tochtergesellschaften und Vertreter zustimmen Bereitstellung und Verbesserung von Siri, Diktat und Diktierfunktionen in anderen Apple-Produkten und -Diensten. “
Nach Meinung von Privacy Warriors reicht dies jedoch nicht aus, nicht nur, weil niemand diese Rechtstexte liest, sondern auch, weil die Bestimmungen von Apple nicht eindeutig und eindeutig klarstellen, dass einige der Live-Aufzeichnungen Ihrer Siri-Gespräche möglicherweise übertragen und angehört werden.
Unternehmen wie Amazon und Google führen ähnliche Programme aus, da dies die Natur des maschinellen Lernens ist - Menschen müssen Algorithmen für maschinelles Lernen einstufen und testen -, nur so können sie mit der Zeit besser und genauer werden. Abgesehen davon trägt Apple vielleicht die größte Last, so offen und transparent wie möglich über sein Assistenten-Bewertungsprogramm zu sein, zumal es die Privatsphäre in ein Marketing-Tool verwandelt.
Apple geht es wahrscheinlich genauso, andernfalls würden sie das Siri-Bewertungsprogramm für den Artikel des Guardian nicht vorübergehend einstellen. Unabhängig davon, wie Sie es sehen, ist die Veröffentlichung eines iOS-Softwareupdates mit Opt-In / Out-Steuerelementen der erste Schritt in die richtige Richtung?
Teilen Sie uns Ihre Reaktion auf die Äußerung von Apple in den Kommentaren unten mit.