Google nutzt maschinelles Lernen, um Herausgeber bei der Identifizierung von Trollen und toxischen Kommentaren zu unterstützen

Wäre es nicht großartig, wenn maschinelles Lernen zur Verbesserung von Kommentaren und anderen Online-Konversationen eingesetzt werden könnte? Sowohl große als auch kleine Verlage, von NYT bis zu der Site, die Sie gerade lesen, verwenden erhebliche Ressourcen, um Trolle davon abzuhalten, Leser mit giftigen Kommentaren zu bombardieren.

Eine neue Google-Technologie, die auf maschinellem Lernen basiert, versucht, den Prozess des Sortierens von Millionen von Kommentaren zu automatisieren und dabei zu helfen, missbräuchliche Kommentare zu identifizieren und zu kennzeichnen, die den zivilen Austausch von Ideen untergraben.

In Zusammenarbeit mit Jigsaw hat Google Perspective auf den Markt gebracht, eine auf maschinellem Lernen basierende Frühphasentechnologie, mit deren Hilfe toxische Kommentare im Web identifiziert werden können. Die offizielle Perspective API ermöglicht es Publishern, diese Technologie für ihre Websites zu verwenden.

Google erklärt, wie es funktioniert:

Perspective überprüft Kommentare und bewertet sie basierend darauf, wie ähnlich sie den Kommentaren sind, von denen die Leute sagten, sie seien "giftig" oder würden wahrscheinlich jemanden dazu bringen, eine Unterhaltung zu verlassen. Um zu lernen, wie man potenziell toxische Sprache erkennt, hat Perspective Hunderttausende von Kommentaren untersucht, die von menschlichen Gutachtern bewertet wurden.

Jedes Mal, wenn Perspective neue Beispiele für potenziell toxische Kommentare findet oder Korrekturen von Benutzern erhält, kann die Bewertung zukünftiger Kommentare verbessert werden.

Nachdem das System toxische Kommentare identifiziert hat, können Verlage sie für ihre eigenen Moderatoren kennzeichnen, um sie zu überprüfen und in eine Konversation einzubeziehen. Leser könnten Kommentare auch nach Toxizität sortieren, um wichtige Konversationen aufzudecken. Das System könnte es Kommentatoren sogar ermöglichen, die potenzielle Toxizität ihres Kommentars beim Schreiben zu erkennen.

Sie denken, Trolling ist kein so großes Problem?

Noch etwas - Die New York Times hat ein ganzes Team damit beauftragt, jeden Tag durchschnittlich 11.000 Kommentare zu überprüfen. Aufgrund der Arbeitskräfte, die für die Überprüfung der Kommentare erforderlich sind, enthält das Papier nur Kommentare zu etwa zehn Prozent seiner Artikel.

Google und die Times haben zusammengearbeitet, um Modelle für maschinelles Lernen zu trainieren, damit die Moderatoren Kommentare schneller sortieren können. Wenn Perspective öffentlich eingeführt wird und sich immer mehr Verlage dafür einsetzen, wird das System mehr Kommentaren ausgesetzt sein und ein besseres Verständnis dafür entwickeln, was bestimmte Kommentare giftig macht.

„Unser erstes Modell wurde entwickelt, um toxische Sprache zu erkennen. Im nächsten Jahr sind wir jedoch bestrebt, Partner zu werden und neue Modelle bereitzustellen, die in anderen Sprachen als Englisch funktionieren sowie Modelle, die andere Perspektiven identifizieren können, beispielsweise wenn Kommentare nicht substanziell sind oder Off-Topic “, sagte Google.

Laut DataSociety wurden 72 Prozent der amerikanischen Internetnutzer online schikaniert, und fast die Hälfte hat dies persönlich erlebt. Fast ein Drittel der Befragten gab an, dass sie sich aus Angst vor Vergeltung selbst zensieren, was sie online posten. Es wird geschätzt, dass Online-Belästigungen das Leben von rund 140 Millionen Menschen in den USA und vielen anderen Ländern beeinträchtigt haben.

Quelle: Google