Netzwerkdurchsetzungsgesetz:Beginnt jetzt das große Löschen?

FILE PHOTO: A picture illustration shows a Facebook logo reflected in a person's eye, in Zenica

Das NetzDG verpflichtet Facebook & Co., "offensichtlich rechtswidrige Inhalte" binnen 24 Stunden zu löschen.

(Foto: REUTERS)

Vom 1. Januar an drohen Facebook & Co. hohe Bußgelder, wenn sie strafbare Inhalte nicht löschen. Wie können Nutzer Beiträge melden? Droht das Ende der Meinungsfreiheit? Die wichtigsten Antworten zum neuen Gesetz.

Von Jannis Brühl, Simon Hurtz und Hakan Tanriverdi

Kurz vor Weihnachten geht ein sechsminütiges Video herum, das zeigt, dass antisemitische Beschimpfungen in Deutschland zum Alltag vieler Juden gehört. Ein Mann beleidigt und bedroht vor laufender Kamera und auf offener Straße einen jüdischen Wirt. Justizminister Heiko Maas schreibt auf Twitter: "Wir alle müssen uns antisemitischer Hetze engagiert und mutig entgegenstellen."

Was dabei fast völlig unterging: Facebook hat das Video zwischenzeitlich gelöscht und den Account von Mike Samuel Delberg gesperrt. Der Repräsentant der Jüdischen Gemeinde zu Berlin hatte die Aufnahme hochgeladen. Erst nach vielen Beschwerden und öffentlichem Druck stellte Facebook den Beitrag wieder her, hob die Sperre auf und entschuldigte sich.

Delbergs Beispiel ist einer von vielen Fällen, in denen Facebook Inhalte entfernte, weil sie vermeintlich gegen die Gemeinschaftsstandards des Netzwerks verstießen. Und Delbergs Beispiel ist nur einer von vielen Gründen, aus denen etliche Juristen, Verbände und Nutzer das Netzwerkdurchsetzungsgesetz (NetzDG) für grundfalsch halten. Das Gesetz mit dem komplizierten Namen zählt zu den umstrittensten Vorhaben der Großen Koalition. Kritiker sehen die Meinungsfreiheit in Gefahr und warnen vor staatlicher Zensur. Nach einer dreimonatigen Übergangsfrist wurde das NetzDG zum Jahresbeginn richtig scharf gestellt. Die wichtigsten Fragen und Antworten im Überblick.

Was will die Regierung mit dem NetzDG erreichen?

Seit Jahren steht Facebook in der Kritik, weil es strafbare Inhalte angeblich gar nicht oder zu langsam löscht. Die Diskussion begann im Spätsommer 2015, als Hunderttausende Nutzer ihre Abneigung gegen Flüchtlinge durch fremdenfeindliche Kommentare öffentlich machten. Justizminister Heiko Maas (SPD) drängte das Unternehmen konsequenter durchzugreifen, es folgten zahlreiche Task-Forces mit Experten und NGOs.

Doch Facebooks Zugeständnisse reichten der Politik nicht. Das NetzDG soll soziale Medien wie Facebook dazu bringen, rechtswidrige Inhalte zuverlässiger zu entfernen. Wenn die Plattformen sich nicht an die Vorschriften halten, drohen Bußgelder von bis zu 50 Millionen Euro - allerdings nur bei "systemischen Mängeln", nicht bei einzelnen Verzögerungen oder Fehlentscheidungen. Die Summe richtet sich auch nach der Größe des Netzwerks.

Für wen gilt das NetzDG?

Auf Anfrage nennt das Bundesjustizministerium (BMJV) keine Namen einzelner Unternehmen. Das Gesetz betrifft soziale Netzwerke, die in Deutschland mindestens zwei Millionen registrierte Nutzer haben. Im Einzelfall müsse das Bundesamt für Justiz (BfJ) ermitteln, welche Anbieter das seien, sagt eine BMJV-Sprecherin.

Facebook, Youtube, Instagram, Twitter und Snapchat gehören auf jeden Fall dazu, vermutlich auch Pinterest. Nicht alle Anbieter veröffentlichen Nutzerzahlen, außerdem ist unklar, ob und wie Bots und Fake-Accounts herausgerechnet werden sollen. Berufliche Netzwerke wie Linkedin und Xing sind ausdrücklich ausgeschlossen, ebenso journalistische Plattformen und Messenger wie Whatsapp.

Welche Pflichten legt das NetzDG den Anbietern auf?

Wenn Nutzer Beiträge melden, weil sie diese für strafbar halten, müssen Plattformen "offensichtlich rechtswidrige Inhalte" binnen 24 Stunden entfernen. Für "rechtswidrige Inhalte" gilt eine Frist von sieben Tagen. Und was heißt das nun genau? "Ein Inhalt ist offensichtlich strafbar, wenn zur Feststellung der Strafbarkeit keine vertiefte Prüfung erforderlich ist", sagt eine BMJV-Sprecherin dazu. Wer entscheidet, ob eine vertiefte Prüfung erforderlich war oder nicht, bleibt unklar. Insgesamt umfasst das Gesetz 20 Strafrechtsparagraphen, von Beleidigung und Blasphemie über Bildung terroristischer Vereinigungen bis zu Volksverhetzung und Verbreitung kinderpornographischer Schriften.

Die Anbieter müssen nicht selbst tätig werden, sondern nur auf Meldungen reagieren. Die Frist beginnt erst, nachdem eine Beschwerde eingegangen ist. Wenn es sich um einen strafbaren Inhalt handelt, können ihn die Plattformen entweder komplett löschen oder national sperren. Entscheidend ist, dass Nutzer mit deutscher IP-Adresse nicht mehr darauf zugreifen können. Die Betreiber sind verpflichtet, rechtswidrige Inhalte für zehn Wochen aufzubewahren, um Strafverfolgung zu ermöglichen.

Außerdem zwingt das NetzDG die betroffenen Unternehmen zu mehr Transparenz. Sie müssen einen jährlichen Bericht erstellen, in dem sie darlegen, wie viele Meldungen sie aufgrund welches Straftatbestandes erhalten, wie schnell sie reagieren und wie viele der beanstandeten Beiträge sie löschen.

Wie können Beiträge gemeldet werden?

Das NetzDG verlangt ein "leicht erkennbares, unmittelbar erreichbares und ständig verfügbares Verfahren". Wie das im Einzelfall aussieht, bleibt den Anbietern überlassen. Wichtig ist nur, dass es von allen Menschen genutzt werden kann und keine Mitgliedschaft beim jeweiligen Netzwerk erforderlich sein darf. Twitter integriert den Prozess beispielsweise in das bestehende Verfahren. Neben den bisherigen Beschwerdegründen wie Spam, Urheberrechtsverletzungen oder Pornografie können Nutzer einen Verstoß gegen das NetzDG anführen.

Facebook dagegen trennt die beiden Systeme. Verstöße nach NetzDG werden dem Unternehmen zufolge über einen "komplett neuen Workflow" gemeldet. Verstöße gegen Facebooks eigene Gemeinschaftsstandards, die vager formuliert sind als das deutsche Strafgesetz, können nach wie vor mit wenigen Klicks direkt über den entsprechenden Beitrag markiert werden. Wer strafbare Inhalte nach NetzDG melden will, muss dafür eine eigene Unterseite in Facebooks Hilfebereich aufrufen, dort die Adresse des Beitrags einfügen und einen Screenshot des Beitrags anfügen. Anschließend wählt der Meldende aus 20 unterschiedlichen Straftatbeständen aus, was hier vorgefallen ist. Unklar bleibt, wie normale Nutzer eine Straftat genau zuordnen können. Facebook empfiehlt, einen Anwalt zu konsultieren.

Wer einen Beitrag meldet und glaubt, dass der Anbieter ihn zu Unrecht nicht innerhalb der vorgeschriebenen Fristen entfernt hat, kann das Unternehmen beim BfJ anzeigen. Dann prüft das Amt und verhängt möglicherweise ein Bußgeld. Die Netzwerke müssen die Inhalte lediglich löschen und nicht an Strafverfolgungsbehörden weitergeben. Bei bestimmten Straftaten schalten die Unternehmen von sich aus die Ermittler ein, etwa im Falle von Kindesmissbrauch oder glaubwürdigen, konkreten Gewaltandrohungen. Um sicherzugehen, dass Absender auch bei anderen Rechtsverstößen strafrechtlich verfolgt werden, ist eine formlose Anzeige bei Polizei oder Staatsanwaltschaft nötig.

Kritiker fürchten Zensur und sehen die Meinungsfreiheit in Gefahr

Was passiert, wenn Nutzer fälschlicherweise Inhalte melden?

Niemand muss Sanktionen befürchten, wenn er legale Inhalte als strafbar meldet. "Konsequenzen für ungerechtfertigtes Melden von Inhalten sind im NetzDG nicht vorgesehen", sagt eine BMJV-Sprecherin. Im Umkehrschluss bedeutet das: Es gibt keine Maßnahmen, um Missbrauch vorzubeugen.

Wer weiß, wie sich Linke und Rechte bereits jetzt "Meldeschlachten" liefern und sich gegenseitig anzeigen, ahnt, dass sie das NetzDG nutzen werden, um der Gegenseite zu schaden. Im Zweifel gilt: Viel hilft viel, irgendein Facebook-Mitarbeiter wird früher oder später schon auf "Löschen" klicken. Angesichts der Masse der Beschwerden sind Fehler unausweichlich. Facebook sagt nur, dass es sich auf "Herausforderungen" einstelle, die mit dem NetzDG verbunden seien.

Wie prüfen die Netzwerke die Inhalte?

Das schreibt das NetzDG nicht vor. Es zählt das Ergebnis, nicht das Vorgehen. Facebook wird beispielsweise seine Content-Moderatoren mit der Prüfung beauftragen. Die Drittfirmen Arvato und Competence Call Center beschäftigen in Berlin und Essen mehr als tausend Mitarbeiter, die im Auftrag von Facebook Inhalte prüfen und löschen. Sie sollen vom sogenannten Community Operations Team unterstützt werden. Dessen Mitglieder sind direkt bei Facebook angestellt und meist besser geschult als die oft nur notdürftig qualifizierten Content-Moderatoren.

Immer wieder begehen die Lösch-Teams Fehler, zensieren legale Inhalte oder sperren unschuldige Nutzer. Vielen ergeht es wie Mike Samuel Delberg, der das antisemitische Video auf Facebook veröffentlichte - allerdings offensichtlich nicht, um sich die mutmaßliche Volksverhetzung zu eigen zu machen, sondern um sie zu dokumentieren. Facebook-Sprecher verweisen dann meist auf bedauerliche Fehlentscheidungen, die sich angesichts Hunderttausender gemeldeter Beiträge pro Woche kaum vermeiden ließen.

Die Netzwerke können die Sieben-Tages-Frist überschreiten, wenn sie die Prüfung an eine sogenannte Einrichtung der Regulierten Selbstregulierung abgeben. Diese Einrichtungen müssen zuvor vom BfJ anerkannt werden. So hat Facebook etwa die Großkanzlei Freshfields benannt, um besonders schwierige Fälle von unabhängigen Juristen prüfen zu lassen. Die Einrichtungen enthalten ihr Honorar direkt von den Unternehmen, die sie beauftragen. Von Seiten des BMJV fließt kein Geld.

Was sind die zentralen Kritikpunkte am NetzDG?

Seit Heiko Maas im Frühjahr den ersten Entwurf vorstellte, steht das NetzDG unter Beschuss. Zwar wurden einige handwerkliche Fehler der ursprünglichen Version korrigiert, nach Ansicht vieler Experten könnte aber auch das nun in Kraft getretene Gesetz gegen die Verfassung verstoßen. Diese Ansicht äußerten etwa Sachverständige bei Anhörungen im Bundestag, darunter mehrere Juristen sowie die Branchenverbände eco und Bitkom. Auch Reporter ohne Grenzen und der Deutsche Journalistenverband kritisieren das NetzDG scharf.

"Mit dem NetzDG verletzt der Staat seine Pflicht zur Neutralität im Meinungswettbewerb. Das berührt eine ganz wesentliche Grundlage unserer Demokratie", sagt Rechtsanwalt Simon Assion, der sich für den Deutschen Anwaltsverein mit dem NetzDG beschäftigt hat. Er fürchtet, dass die Politik Zensur ausüben könnte: "Es ist durchaus möglich, dass die Staatsspitze direkten Einfluss nimmt. Das Bundesjustizministerium hat Zugriff darauf, wie soziale Netzwerke ihre Löschmechanismen umsetzen."

Ein weiterer Kritikpunkt sind die kurzen Löschfristen. 24 Stunden seien deutlich zu kurz, um Beiträge juristisch angemessen zu prüfen. Deshalb "werden soziale Netzwerke aus Angst vor Bußgeldern zu viele Inhalte löschen", sagt Christian Mihr, Geschäftsführer von Reporter ohne Grenzen. Er befürchtet sogenanntes Overblocking. Das Gesetz sieht Bußgelder nur für Netzwerke vor, die rechtswidrige Inhalte stehen lassen. Im Zweifel entscheiden sich Anbieter also fürs Löschen - wer zu viele Inhalte entfernt, muss schließlich keine Sanktionen fürchten.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: