Online-Kommentare:Google will Trolle mit künstlicher Intelligenz bekämpfen

Hate Speech

Mit der künstlichen Intelligenz "Perspective" will Google gegen Beleidigungen und Hasskommentare im Internet vorgehen.

(Foto: promesaartstudio - Fotolia)
  • "Perspective" heißt ein Programm der Google-Tochter Jigsaw. Es soll mit Hilfe von künstlicher Intelligenz sachlichere Diskussionen ermöglichen.
  • Perspective wurde trainiert, um Kommentare auf ihren "Giftgehalt" hin zu überprüfen.
  • Das Angebot richtet sich zuerst an Verlage. Sowohl der Guardian als auch der Economist machen mit.

Von Hakan Tanriverdi

"Nicht die Kommentare lesen" ist ein weit verbreiteter Tipp, wenn es um Online-Diskussionen geht. Menschen sollen davor bewahrt werden, ihre Zeit damit zu verschwenden, niveaulose Beleidigungen zu lesen. In den vergangenen Jahren haben sich mehrere Webseiten, darunter auch SZ.de, dazu entschlossen, den Kommentarbereich auf ihren Webseiten abzuschalten. (Hier die Begründung.)

Wenn es nach Jigsaw geht, einem Google-Thinktank, könnte dieser gut gemeinte Tipp bald überflüssig sein. Jigsaw hat an diesem Donnerstag ein Produkt mit dem Namen Perspective veröffentlicht. Künstliche Intelligenz wird dazu eingesetzt, beleidigende Kommentare schneller zu erkennen - und auszuschließen. Das erklärte Ziel ist es, die Aggression aus Online-Diskussionen zu nehmen.

"Hochwertige Gespräche ermöglichen"

"Mit Perspective bekommen Verlage ein Werkzeug in die Hand, um hochwertige Gespräche zu ermöglichen", sagt Jared Cohen, der Jigsaw leitet. Zu Beginn werden Webseiten wie die britische Zeitung The Guardian und das britische Magazin Economist die Google-Technik einsetzen. Die New York Times testet das Produkt bereits seit Monaten.

Jigsaw setzt auf künstliche Intelligenz (KI), um Algorithmen zu trainieren. Das bedeutet, dass das Programm aus einer Sammlung von Kommentaren samt ihrer jeweiligen Bewertung selbständig Regeln entwickelt, um zukünftige Kommentare bewerten zu können. Der Algorithmus soll also vorhersagen können, wie ein Nutzer oder Moderator auf einen Kommentar reagieren wird. Und damit auch einschätzen, welche Kommentare als akzeptabel gelten und welche nicht. Solche KI-Modelle brauchen ein riesiges Set an Daten.

Jigsaw bekam von der Zeitung New York Times 17 Millionen Kommentare samt der Informationen, welche durch Moderatoren als "unangebracht" abgelehnt wurden. Dazu stellte die Wikimedia Foundation Teile aus 130 000 Diskussionen zu Wikipedia-Einträgen zur Verfügung. Jeweils zehn Personen wurden befragt, ob sie diesen Kommentar beanstanden würden. Zu Beginn wird es Perspective nur in englischer Sprache geben. Sobald Google genug Datensätze hat, um die Algorithmen auch auf Deutsch zu trainieren, könnte es auch in Deutschland zur Verfügung stehen.

"Giftgehalt" auf einer Skala von null bis 100

Aus diesen Daten ermittelt Perspective auf einer Skala von null bis 100 den "Giftgehalt". Dieser Wert könnte als erster Schritt von Verlagen eingesetzt werden, um Kommentare auszusortieren. Diese Zahl soll etwa der Wahrscheinlichkeit entsprechen, mit der man nach dem jeweiligen Kommentar in der echten Welt ein Gespräch beenden würde.

In der offiziellen Pressemitteilung von Google wird ein alternativer Einsatz von Perspective beschrieben. "I think you're stupid" tippt dort eine Person. Ich glaube, du bist dumm. Kaum ist der Satz beendet, sieht der Kommentarschreiber eine Warnung: "Deckt sich zu 94 Prozent mit Kommentaren, die Nutzer als 'giftig' beschrieben haben." Das soll Nutzer dazu bringen, ihren möglicherweise beleidigend formulierten Beitrag neu zu verfassen.

Es ist umstritten, ob man künstliche Intelligenz dazu einzusetzen sollte, um menschliche Meinungensäußerungen auf einer Skala zu bewerten. Jigsaw-Chef Cohen verweist auf Studien (hier als PDF), nach denen mindestens ein Drittel aller Internetnutzer selbst auf Kommentare verzichten, weil sie Angst davor haben, anschließend angefeindet zu werden. Soziale Netzwerke verlassen sich bislang vor allem auf hoffnungslos überforderte Löschteams. Auch beim Guardian verspricht man sich davon Entlastung: "Wir hoffen, dass uns Algorithmen dabei helfen, unsere Community-Richtlinien effektiv umzusetzen."

Jigsaw konzentriert sich auf gefährdete Nutzer

In einem Selbsttest kam Andy Greenberg, Journalist bei Wired, zu einem vielversprechenden Ergebnis: Die Software sei in der Lage, "erstaunlich subtile" Unterschiede in der Sprache zu erkennen. Doch wiederholt passierte es, dass Jigsaw Fehlentscheidungen treffe. Das englische Äquivalent zu "Kein Scheiß" war Perspective zufolge ähnlich giftig wie "Du bist scheiße". Das System ist nicht perfekt, sagt auch Jigsaw-Chef Cohen. Verbesserungen würden im laufenden Betrieb eingearbeitet.

Jigsaw ist eine Google-Tochter, die sich vor allem auf gefährdete Nutzer konzentriert. So werden potenziellen IS-Sympathisanten, die anhand ihrer Suchbegriffe identifiziert werden, neben den eigentlichen Treffern Links zu Anti-IS-Kampagnen angezeigt. Werbung gegen Terrorismus, sozusagen. Auch Password-Alert, bei dem Nutzer vor Phishing-Versuchen gewarnt werden, ist ein Jigsaw-Produkt.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: