Künstliche Intelligenz:Algorithmen, die auf falsche Fährten locken

Künstliche Intelligenz: Polizeibeamte bei einem Einsatz in Nordrhein-Westfalen

Polizeibeamte bei einem Einsatz in Nordrhein-Westfalen

(Foto: Tim Oelbermann/Imago)

Polizisten in Nordrhein-Westfalen berechnen mit einer Software die Wahrscheinlichkeit von Einbrüchen. Klingt praktisch. Aber Grundrechtsschützer warnen vor "irreführenden Informationen".

Von Christoph Koopmann

Die Polizei in Nordrhein-Westfalen kann in die Zukunft blicken. Die Beamten sind zwar nicht übernatürlich begabt, sie haben sich vielmehr eine Technik entwickeln lassen, die Verbrechensvorhersagen erlaubt. NRW hat das Prognosesystem "Skala" für Wohnungseinbrüche drei Jahre lang getestet, seit 2021 können alle Kreispolizeibehörden im Bundesland die Technik nutzen. "Predictive Policing" lautet das englische Zauberwort - vorhersehende Polizeiarbeit.

Die Beamtinnen und Beamten speisen ins System ein, was sie über bereits begangene Einbrüche wissen, Tatzeit und Tatort etwa, Art und Weise der Ausführung, Anfahrts- und Fluchtweg. Skala errechnet daraus mithilfe von Algorithmen, wann und wo künftig mit welcher Wahrscheinlichkeit Ähnliches passieren wird. Aufgrund dieser Prognosen werden zum Beispiel verstärkt Streifen losgeschickt. Auch andere Bundesländer probieren Predictive Policing längst aus.

Wo viel Polizei unterwegs ist, können auch viele Straftaten entdeckt werden

Allerdings sind Datenschützer und Bürgerrechtler besorgt. Kann es nicht sein, dass Algorithmen bald nicht mehr nur Einbrüche vorhersagen sollen, sondern auch alle möglichen anderen Arten von Verbrechen? Das hätte potenziell fragwürdige Folgen. Nun warnt auch die EU-Agentur für Grundrechte mit Sitz in Wien davor, dass sich Ermittler zu sehr auf die Software des Predictive Policing verlassen.

In einer Studie, die sie am Donnerstag veröffentlicht und der Süddeutschen Zeitung vorab bereitgestellt hat, schreibt die EU-Agentur: "Algorithmen können irreführende Informationen generieren." Wurden zum Beispiel in einer Gegend überproportional viele Straftaten registriert, wird der Algorithmus die Polizei immer wieder dorthin schicken. Das wiederum kann dazu führen, dass dort allein wegen der höheren Polizeipräsenz auch weiterhin mehr Straftaten entdeckt werden als in Gegenden, die weniger im Fokus stehen.

Algorithmen in der Ermittlungsarbeit bergen aus Sicht der EU-Expertenkommission noch ein weiteres Risiko: "Sie können diskriminierende Praktiken verstärken oder begründen, die womöglich unverhältnismäßig stark ethnische Minderheiten treffen."

Die EU-Grundrechteagentur hat noch ein zweites Einsatzfeld für Algorithmen untersucht: Social Media. Der Facebook-Mutterkonzern Meta etwa prahlt in einem Artikel auf seiner Website: "Wie Facebook supereffiziente Künstliche Intelligenz nutzt, um Hatespeech aufzuspüren." Meta-Chef Mark Zuckerberg brüstete sich vor dem US-Senat 2020 damit, dass Facebook 94 Prozent der Hassrede auf Facebook entferne. Das war allerdings nur der Anteil an Posts, die eine KI vorher aufgespürt hatte. In internen Dokumenten, die die Whistleblowerin Frances Haugen geleakt hat, steht: Insgesamt entferne Facebook nur drei bis fünf Prozent der geposteten Hassreden.

Algorithmen laufen Gefahr, die untersuchte Realität verzerrt darzustellen

Der tatsächliche Nutzen der Software ist nicht nur deshalb fragwürdig. Denn wie bei der Polizeiarbeit können Algorithmen auch in den Sozialen Medien die untersuchte Realität verzerrt darstellen. "Biased" nennt die EU-Grundrechteagentur solche verfälschten Ergebnisse. Schon 2019 fand ein Forscherteam heraus, dass KI-Methoden zur Hatespeech-Erkennung die Posts von Afroamerikanern mit deutlich höherer Wahrscheinlichkeit als beleidigend einstufen als die von anderen Absendern. Das liege unter anderem daran, dass Afroamerikaner zuweilen in ihren Posts mehr Schimpfwörter benutzen als etwa weiße Amerikaner - diese aber, im Kontext gesehen, nicht beleidigend gemeint sind.

Dass auf Algorithmen nur eingeschränkt Verlass ist, zeigt die EU-Studie zudem anhand völlig harmloser Posts wie "Ich bin Muslim" oder "Ich bin Jude". Auch sie wurden teilweise als beleidigend eingestuft.

Zur SZ-Startseite

SZ PlusKünstliche Intelligenz
:"Ich habe kein Selbstbewusstsein oder Empfindungen"

Das Programm Chat GPT beantwortet Fragen auf beeindruckende Weise. Wie das funktioniert? Wir haben die künstliche Intelligenz selbst befragt.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: