Digitalisierung:Deutschland braucht einen Ethik-Kodex für Algorithmen

IT-Sicherheitsmesse 'it-sa'

Wenn der Staat Algorithmen verschlossen hält und nicht erklärt, schürt das Ängste - teilweise auch zu Recht.

(Foto: dpa)

Der Staat wird in Zukunft mehr automatisiert entscheiden, mit Folgen für die Bürger. Dafür sind endlich klare Regeln nötig, die Diskriminierung und soziale Kälte vermeiden.

Kommentar von Valentin Dornis

Österreich führt einen Algorithmus ein, der Arbeitslose in drei Kategorien sortieren soll: mit guten, mittleren und schlechten Chancen auf einen neuen Job. Kritiker fürchten Diskriminierung von Frauen, Alten und Ausländern. In Deutschland sind solche Programme in der Verwaltung bisher die Ausnahme, den Sicherheitsapparat mal ausgenommen. Bevor sich das ändert, ist es dringend nötig, endlich Richtlinien zur Algorithmenethik einzuführen, die bundesweit gelten. Nur so kann die Verwaltung in Zukunft die Chancen automatisierter Prozesse nutzen, ohne Ängste bei den Bürgern zu schüren oder gar zu bestätigen.

Ein moderner Staat muss Algorithmen nutzen, auch im direkten Kontakt mit den Bürgern. Sie helfen, Abläufe zu optimieren und Geld zu sparen - im Idealfall, um es anderswo sinnvoller einsetzen zu können. Weil es dabei um Steuergelder geht, ist diese Effizienz im Sinne jedes Bürgers, jedes Steuerzahlers. Ineffizient ist dagegen der aktuelle Zustand in Deutschland: Eine umständliche Verwaltung, in der viele Dinge auf Länderebene unterschiedlich geregelt sind, in der Daten vorhanden, aber nicht verknüpft sind, in der eine Behörde in Bayern andere Software benutzt als die in Berlin.

Trotzdem gibt es großen Widerstand, wenn über automatisierte Prozesse im Staat nachgedacht wird. Die größte Sorge ist, dass der Mensch seine Bedeutung als Individuum verliert, sobald seine Daten durch einen Algorithmus wandern. Dass das Leistungsprinzip zum ultimativen Grundsatz wird: Wer schlechte Kennzahlen in der Akte stehen hat, der wird nicht gefördert und weiß im Zweifel nicht einmal, warum. Diese Sorge ist berechtigt, aber kein Grund, auf automatisierte Systeme zu verzichten. Nötig sind klare Regeln, wenn staatliche Institutionen Algorithmen einsetzen. Effizienz darf nicht der alleinige Maßstab werden, der die Sozialpolitik definiert. Ein Solidarsystem soll auch Menschen Chancen ermöglichen, deren Aussichten nicht erfolgreich scheinen.

Die gute Nachricht: Algorithmen werden von Menschen gemacht. Es gibt Politiker, die sie in Auftrag geben, Informatiker, die sie programmieren und Beamte, die sie anwenden. Nicht der Algorithmus ist schuld, wenn Bürokratie ungerecht ist, sondern die Menschen, die diese Bürokratie gestalten und verwalten. Wenn es für diese Menschen keine ethischen Leitlinien gibt, wie sie mit neuen technischen Möglichkeiten umgehen sollen und wo die Grenzen liegen, ist das ein Problem. Erst dann wird der Algorithmus zum Risiko für den einzelnen Bürger.

Die Digitalstrategie der aktuellen Bundesregierung und ihrer Vorgänger orientiert sich leider eher an historischer behördlicher Ineffizienz. Die Regierung digitalisiert auf lauter kleinen Inseln im großen Datenmeer vor sich hin. Es gibt unter anderem einen Digitalrat, ein Digitalkabinett, eine Digital-Staatsministerin, eine koordinierende Digitalabteilung im Kanzleramt, eine Abteilung Digitalisierung und Arbeitswelt samt zuständigem Staatssekretär im Arbeitsministerium und eine Datenethik-Kommission.

Vier Grundsätze: Kontrolle, Transparenz, Expertise, Anpassung

Letztere ist seit etwa sieben Wochen im Einsatz und soll nun immerhin ethische Leitlinien "vorschlagen und Handlungsempfehlungen geben". Das ist grundsätzlich gut, aber nicht ehrgeizig genug. Es fehlt das Versprechen, dass die Bundesregierung daraus noch vor der nächsten Wahl bundesweit einheitliche verpflichtende Vorschriften entwickelt. Denn nur dann ist die Arbeit der Expertinnen und Experten dieser Kommission sinnvoll.

Wie könnten solche Regeln aussehen? Erstens: Kontrolle. Ein Gremium mit Experten, Betroffenen und Anwendern muss von Beginn an mitarbeiten und zum Beispiel sicherstellen, dass durch einen Algorithmus keine bestehenden Vorurteile reproduziert werden. Zweitens: Transparenz. Staatliche Software darf nicht unter Geheimhaltung entwickelt und angewendet werden. Sie muss Open Source sein, das heißt, jeder muss sie testen und Schwachstellen finden können. Drittens: Expertise. Mitarbeiter in der Verwaltung müssen lernen, mit der Software umzugehen, Grundmechanismen algorithmischer Prozesse zu verstehen und die Aussagekraft von Wahrscheinlichkeiten einzuschätzen. Viertens: flexible Anpassung. Bewertet ein Programm etwa die Chancen von Arbeitslosen auf einen Job, muss es laufend überprüft und angepasst werden. Wird jemand wegen der Software benachteiligt, muss es einen Ausgleich geben.

Algorithmen sind nicht böse, es kommt auf ihre Gestaltung und Anwendung an. Diese sollte in Deutschland klar geregelt sein, bevor die Programme auf die Bürger losgelassen werden.

Zur SZ-Startseite

Palantir in Deutschland
:Wo die Polizei alles sieht

In Hessen setzt die Polizei erstmals in Deutschland Fahndungs-Software von Palantir ein, der Lieblingsfirma von CIA und US-Armee. Der zuständige Minister hat gleich Ärger.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: