Unpopuläre Meinung Apple-Vertragspartner hören sich Siri-Audio an, um den Service zu verbessern. Was gibt es sonst Neues?

In dem Bericht der britischen Zeitung The Guardian vom vergangenen Wochenende hieß es, Apple stelle Vertragspartner ein, die mit dem Abhören von Siri-Audiodaten beauftragt seien, und forderten die Kritiker auf, die Geschichte als Beweis dafür zu nehmen, dass Apples Engagement für den Datenschutz nichts weiter als Marketinggespräche ist.

Ein Auszug aus dem Bericht des Wächters:

Apple-Vertragspartner hören regelmäßig vertrauliche medizinische Informationen, Drogendealer und Aufzeichnungen von Paaren, die Sex haben, als Teil ihrer Arbeit, bei der sie Qualitätskontrollen durchführen, oder die Einstufung des Siri-Sprachassistenten des Unternehmens, wie der Guardian erfahren hat.

Obwohl Apple dies nicht explizit in seiner Dokumentation zum Datenschutz für Endverbraucher offenlegt, wird ein kleiner Teil der Siri-Aufzeichnungen an Auftragnehmer weitergegeben, die für das Unternehmen auf der ganzen Welt arbeiten.

Sind Sie sich hundertprozentig sicher? Weil ich gerade Apples Datenschutzbildschirme überprüft habe, die über alle Betriebssysteme verteilt sind, und auf jeden Fall deutlich machen, dass einige Siri-Aufzeichnungen zur Verbesserung des Siri-Dienstes verwendet werden können. Darüber hinaus konnte ich den folgenden Auszug finden, indem ich die iOS-Softwarelizenzvereinbarung von Apple schnell durchkämmte:

Durch die Verwendung von Siri oder Diktat stimmen Sie der Übertragung, Erfassung, Pflege, Verarbeitung und Verwendung dieser Informationen, einschließlich Ihrer Spracheingaben und Benutzerdaten, durch Apple und seine Tochterunternehmen und Vertreter zu, um die Funktionen von Siri, Diktat und Diktat bereitzustellen und zu verbessern in anderen Apple-Produkten und -Diensten.

Diese ganze Passage ist fett und ich denke, es ist ziemlich eindeutig über Apples Absichten.

Die „Offenbarung“, dass das Unternehmen die vom persönlichen Assistenten von Siri erfassten Sprachdaten an Dritte verkauft, die mit der Schulung des Siri-Algorithmus beauftragt sind, als Teil des Versuchs, den Siri-Service zu verbessern, ist nichts Neues Technologie.

Sogar der Guardian erkennt Folgendes an:

Sie stufen die Antworten anhand einer Reihe von Faktoren ein, darunter, ob die Aktivierung des Sprachassistenten absichtlich oder zufällig war, ob die Abfrage etwas war, bei dem Siri helfen sollte, und ob die Antwort von Siri angemessen war.

Dies ist nicht das erste Mal, dass Leute „entdecken“, dass einige Siri-Audio-Snippets an Dritte weitergegeben werden. Im Jahr 2015 schrieb ein anonymer Mitarbeiter einer Firma namens Walk N'Talk Technologies auf Reddit, dass die von der Firma analysierten Sprachdaten von persönlichen Assistenten wie Siri und Cortana stammen.

Apple hat die folgende Erklärung gegenüber dem Guardian und anderen veröffentlicht:

Ein kleiner Teil der Siri-Anfragen wird analysiert, um Siri und Diktat zu verbessern. Benutzeranforderungen sind nicht mit der Apple-ID des Benutzers verknüpft. Siri-Antworten werden in sicheren Einrichtungen analysiert und alle Prüfer sind verpflichtet, die strengen Vertraulichkeitsanforderungen von Apple einzuhalten.

Der Kern der Guardian-Geschichte stammt von einem „Whistleblower“, im Grunde genommen einem Apple-Arbeitgeber, der angab, während versehentlicher Aktivierungen etwas Privates gehört zu haben.

Folgendes sagte der Whistleblower der Zeitung:

Es hat unzählige Aufzeichnungen gegeben, die private Gespräche zwischen Ärzten und Patienten, Geschäftsabschlüsse, anscheinend kriminelle Geschäfte, sexuelle Begegnungen usw. beinhalteten. Diese Aufzeichnungen werden von Benutzerdaten begleitet, die Standort, Kontaktdaten und App-Daten anzeigen.

Audioaufnahmen von Benutzeranfragen nutzen Metadaten wie den Speicherort, um den Kontext besser zu verstehen. Der besorgniserregende Teil ist die Tatsache, dass Auftragnehmer Privatgespräche überhaupt erst hören können. Wie der Bericht selbst bestätigt, ist dies möglich, weil ein Benutzer Siri versehentlich aufrufen kann, ohne es zu bemerken, und die Audioaufzeichnung dessen veranlasst, was nach der Aufweckphrase "Hey Siri" zum Hochladen auf den Server gesprochen wird, und sicherlich nicht, weil Siri zeichnet heimlich Gespräche ohne Zustimmung des Benutzers auf.

Meine Gefühle dazu sind sicherlich nicht die gleichen wie im übrigen Internet.

Es ist zu erwarten, dass sich kein digitaler Assistent im Laufe der Zeit verbessern wird, allein aufgrund der Leistungsfähigkeit künstlicher Intelligenz und des maschinellen Lernens. Das liegt daran, dass das von einem Assistenten verwendete Modell des maschinellen Lernens zuerst von menschlichen Redakteuren trainiert werden muss - es gibt nur zwei Möglichkeiten.

Google Fotos wäre nicht in der Lage gewesen, Gesichter mit einer unheimlichen Genauigkeit zu erkennen, wenn das Unternehmen den Algorithmus nicht anhand der Fotos von echten Personen trainiert hätte. Apples Face ID wäre nicht möglich gewesen, wenn das maschinelle Lernen nicht auf mehr als einer Million Fotos verschiedener menschlicher Gesichter trainiert worden wäre. Selbst etwas so „Normales“ wie die Spracherkennung kann drastisch verbessert werden, indem ein Algorithmus für maschinelles Lernen unter Verwendung trainierter Daten verwendet wird.

Die harte Wahrheit ist, dass Maschinen die maschinellen Lernmodelle anderer Maschinen (noch) nicht mit zufriedenstellenden Ergebnissen trainieren können - das ist der Job, den wir Menschen übertreffen.

Jeder in der Branche, der es mit künstlicher Intelligenz ernst meint, beschäftigt menschliche Redakteure, um ihre Algorithmen für maschinelles Lernen mit dem Ziel zu trainieren, den Service zu verbessern. Diese Mitarbeiter sind mit allen Inhalten konfrontiert, die im Mittelpunkt ihrer Bemühungen stehen, seien es kurze Audiodateien, die von intelligenten Lautsprechern während der Sprachinteraktion aufgenommen wurden, oder Fotos, die von Menschen auf einen Photo-Sharing-Service hochgeladen wurden, oder gekennzeichnete Elemente in einem Social-Media-Feed.

Einige Unternehmen nehmen den Datenschutz ernsthafter als andere. Einige Unternehmen sind möglicherweise nicht so transparent, wie ihre menschlichen Redakteure die anstehende Aufgabe angehen, wie andere. Und letztendlich werden einige Unternehmen, die keine so solide Erfolgsgeschichte im Schutz der Privatsphäre der Benutzer vorweisen können, wahrscheinlich stärker von den Medien und der Öffentlichkeit als die anderen unter die Lupe genommen,.

Aber ich glaube nicht, dass es im Interesse eines Unternehmens liegt, von seinen Mitarbeitern zu verlangen, dass sie unsere Gespräche mit einem persönlichen digitalen Assistenten mithören, nur weil sie dies können - oder weil sie hoffen, aus diesen privaten Informationen auf irgendeine Weise umsetzbare Informationen abzuleiten Gespräche führen - und viele, viele Jahre damit durchkommen, ohne dass jemand etwas bemerkt oder sich beschwert. Das ist in der heutigen vernetzten Welt einfach nicht möglich.

Versteht mich nicht falsch, ich schätze harte Ermittlungsarbeit, die von Journalisten geleistet wurde, die über diese Dinge berichten, weil sie Kreuzfahrern der Privatsphäre etwas zum Kauen geben. Aber ich kaufe nicht für eine Sekunde ihre kaum verhüllte oder implizite Schlussfolgerung, dass Big Tech nicht nur menschliche Redakteure einsetzt, um Siri, Alexa und Google Assistant zu schulen, sondern auch, um unsere Gespräche zu belauschen, damit einige noch nicht bekannt gegeben werden sicherlich schändliche Zwecke.

Ja, einige Amazon-Mitarbeiter, die Alexa-Anfragen abhören, haben tatsächlich Zugriff auf die Privatadressen der Benutzer, da einige gesprochene Anfragen den Standort enthalten. Und ja, einige von Menschen überprüfte Google Assistant-Aufzeichnungen können möglicherweise private Konversationen enthalten, da Kunden dem digitalen Assistenten sagen können, was immer sie wollen.

Es ist das, was diese Mitarbeiter mit diesen Aufzeichnungen machen sollen, was am Ende des Tages zählt. Es ist die Tatsache, dass ein betrügerischer menschlicher Redakteur möglicherweise Informationen von Privatkunden missbraucht, die uns Sorgen machen sollten, und nicht die Tatsache, dass Menschen Audioaufnahmen in einer weit entfernten sicheren Einrichtung mit dem ausdrücklichen Ziel der Verbesserung des Dienstes anhören.

Gedanken?