Social Media:Wahl der Wahrheit

Facebook will weniger Fake News und lässt künftig die eigenen Nutzer entscheiden, welchen Nachrichten zu trauen ist. Mark Zuckerberg kündigt an, dass "trusted sources" künftig bevorzugt werden. Wie hilfreich ist so eine Abstimmung?

Von Karoline Meta Beisel und Jürgen Schmieder

Die Ankündigung von Mark Zuckerberg wirkt, als hätte er eine Erleuchtung gehabt. "Es gibt zu viel Sensationsgier, Fehlinformation und Polarisierung heutzutage auf der Welt", schrieb der Facebook-Gründer am Freitag in einem Blogeintrag: "Soziale Medien ermöglichen es den Leuten, Informationen schneller als jemals zuvor zu verbreiten, und wenn wir diese Probleme nicht gezielt bekämpfen, dann verstärken wir sie am Ende noch." Wer die vergangenen Monate nicht unter einem Stein gelebt hat, der nickt zustimmend.

Zuckerberg möchte nun, dass die zwei Milliarden Facebook-Kunden künftig möglichst vertrauenswürdige Nachrichten in ihrer Zeitleiste lesen und dann mit ihren Kontakten darüber debattieren. Nur: Was sind vertrauenswürdige Nachrichten? Und was sind Fake News? Zuckerberg will die Entscheidung nicht selbst treffen ("Das wäre uns nicht behaglich") und auch nicht Experten ("Das würde das Objektivitätsproblem nicht lösen") überlassen, sondern den Nutzern seiner Plattform. "Als Teil unserer laufenden Qualitätsüberprüfungen werden wir die Leute fragen, ob sie eine Nachrichtenquelle kennen - und wenn ja, ob sie ihr vertrauen". Solche "trusted sources" sollen in den USA bereits von kommender Woche an Vorrang bei der Verbreitung erhalten. Das bedeutet, dass Leute auf Facebook eher Nachrichten von und Links zu diesen von den Nutzern selbst als vertrauenswürdig eingestuften Seiten zu sehen bekommen. Nach der Ankündigung stieg der Aktienkurs bekannter Medienmarken wie der New York Times und Rupert Murdochs News Corp.

Die Änderung wirkt sich unmittelbar darauf aus, welche Nachrichten und Analysen vorrangig verbreitet werden. Sie bestimmt also über das Weltbild der gar nicht so wenigen Menschen, die sich hauptsächlich über Facebook informieren. Die Gesamtzahl der News werde sich nicht ändern, schrieb Zuckerberg, es werde nur das Gewicht der Nachrichtenanbieter zu denjenigen verschieben, die von der Community als glaubwürdig eingestuft werden. Also: Was kann schon schiefgehen?

Auf Facebook, das hat nicht nur Zuckerberg feststellen müssen, debattieren Leute nicht nur sachlich oder zeigen sich Fotos von lustigen Einhörnern. Die Wahlkämpfe in den USA, Frankreich und Deutschland haben gerade hier gezeigt, wie aggressiv und hundsgemein der Mensch auch sein kann. Die Nutzer in sozialen Netzwerken sind oft nur noch von Leuten umgeben, die so denken wie sie. In der "Echokammer" verfestigen sich Weltsichten - so weit, bis sich Leute selbst aussuchen, welcher Nachricht sie Glauben schenken und welcher nicht, völlig unabhängig von den Fakten. Erst dieses Phänomen hat Fake News überhaupt groß gemacht. Dazu kommt auch noch absichtliche Beeinflussung. Gerade machte der Kurznachrichtendienst Twitter bekannt, dass während des US-Präsidentschaftswahlkampfs sehr viel mehr Nutzerkonten als gedacht in Verbindung zu einer Trollfarbrik der russischen Regierung standen.

"Es ist ein erfreulicher Schritt, die Spreu vom Weizen trennen zu wollen", sagt Jason Kint, Chef des Nonprofit-Branchenverbandes Digital Content Next zu Zuckerbergs Idee: "Der Teufel steckt jedoch im Detail, wie das Unternehmen das anstellen will: Können wir dem Ranking wirklich vertrauen? Was passiert, wenn es manipuliert wird?" Mit der Neuerung zieht Zuckerberg das Netzwerk jedenfalls aus der politisch verlangten Verantwortung für die dort verbreiteten Inhalte und deren Gewichtung. Das signalisiert, Facebook sei nur eine Plattform, nur eine Verbreitungstechnik. Zuckerberg wählt den Weg, an dessen Ende die Schuld bei den Nutzern liegt, wenn es schief geht. Und wie sich in letzter Zeit gezeigt hat, kann dabei eine ganze Menge schiefgehen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: