Kolumne: Silicon Future:Von wegen unfehlbar

Lesezeit: 3 min

An dieser Stelle schreiben jeden Dienstag Marc Beise, Helmut Martin-Jung, Jürgen Schmieder und Kathrin Werner im Wechsel. Illustration: Bernd Schifferdecker (Foto: N/A)

Die digitale Anzeige suggeriert Genauigkeit bis auf die Nachkommastellen. Aber wie kommen die Messergebnisse eigentlich zustande? Die Algorithmen, die zunehmend unser Leben bestimmen sollen, basieren oft auf verzerrten Daten oder machen schlicht Fehler.

Von Helmut Martin-Jung

Sollte man öfter machen, solche Radtouren. Die schlaue Uhr hat mitgezählt: Hat den Weg per GPS aufgezeichnet. Hat sich gemerkt, wie langsam es den Berg hinaufging und wie rasant wieder runter, hat die Durchschnittsgeschwindigkeit berechnet. Und hat ausgerechnet, wie viel Pizza, Kuchen und Schweinebraten sich nicht an der Hüfte anlagern wird, sondern als Brennstoff gedient hat: 943 Kilokalorien - ha!

Aber stimmt das auch? Es ist ja das Verführerische gerade an digitalen Anzeigen, dass sie unfehlbar zu sein scheinen. Da steht es doch: 943. Nicht 953, nicht 933. Häufig auch auf Nachkommastellen genau wird etwas ausgegeben, dabei muss die Frage ja eher sein: Wie kommt dieses Ergebnis eigentlich zustande?

Nun, im Falle der Kalorienzählung muss man leider sagen, dass es sich bestenfalls um eine Art begründeter Vermutung handelt. Wissenschaftler haben bei Versuchen mit Fitness-Uhren teilweise gewaltige Abweichungen von den Ergebnissen gemessen, die parallel mit professionellen Methoden ermittelt wurden. Das Blöde ist, dass man sich dabei unter anderem mit einer Art Gasmaske auf dem Laufband oder dem Hometrainer bewegt - für die Radtour eher unpraktisch.

Während bei der GPS-Aufzeichnung sogar das kleine Eck in der Strecke registriert wird, das die Pinkelpause verursacht hat, beruht die Kalorienangabe auf einer Reihe von Annahmen. Daten, die der Uhr zur Verfügung stehen, werden zusammengerechnet und mit einem Algorithmus dann eine Zahl ausgegeben. Doch jeder Körper ist anders: Der Kalorienbrauch ist also allenfalls als grobe Richtschnur zu verstehen. Vereinfacht gesagt: Klar ist nur, dass es besser ist, durch die Gegend zu radeln, als sich die Tour de France im Fernsehen anzusehen. Was hiermit auch sehr empfohlen wird. Also das Radeln.

Die Sache lenkt den Blick aber auch auf ein grundsätzlicheres Problem. Während die Sache mit den Kalorien verschmerzbar ist, auch wenn man nicht darum weiß, werfen andere Scheingenauigkeiten viel gravierendere Fragen auf.

Zum Beispiel Gesichtserkennung. Bei dem Großversuch am Bahnhof Südkreuz in Berlin waren nicht nur die Erkennungsraten teilweise unterirdisch; auch die Fehlerrate - also die der falsch erkannten Personen - war mit 0,1 Prozent zu hoch. Zwar erscheint diese Prozentzahl sehr niedrig. Bei im Schnitt knapp 180 000 Menschen, die den Bahnhof täglich nutzen, wären es jedoch deutlich zu viele, bei denen die Polizei zu Unrecht die Tür eintritt. Davon, dass es ein viel zu hoher Eingriff in die Freiheitsrechte wäre, sogenannte intelligente Überwachung flächendeckend einzusetzen, wollen wir mal gar nicht reden.

Bei der Gesichtserkennung spielen viele einfach zu erkennende Faktoren eine Rolle - Mützen, Sonnenbrillen, Schals, Masken, Licht und Schatten, verschmutzte Kameraobjektive und so weiter. Aber es gibt auch Faktoren, die eher im Hintergrund wirksam sind. Auch die Erkennung von Gesichtern funktioniert mithilfe von Algorithmen, oft entwickelt mit maschinellem Lernen. Einer Software werden Bilder gezeigt, und sie entwickelt daraus Methoden, wie sie die Gesichter unterscheiden kann. Und weil es sich um Maschinen handelt, gelten ganz andere Kriterien als bei Menschen, die eine erstaunliche Fähigkeit im Erkennen von Gesichtern haben - weil das evolutionär offenbar sehr wichtig war.

Langgehegte Vorurteile pflanzen sich in Algorithmen fort

Nicht immer ist bei den von Maschinen entwickelten Methoden ganz klar, wie sie eigentlich genau zustande kommen. Wenn es darum geht, das Gewinde von Schrauben noch präziser herzustellen, ist das bedeutungslos. Wenn es aber darum geht, wer einen Job bekommt oder nicht, wer als Terrorist verdächtigt wird oder auf Bewährung aus dem Knast freikommt, ist es völlig untragbar.

Oft sind es aber gar nicht einmal diese Black Boxes der künstlichen Intelligenz (KI), die das Problem verursachen. Es sind die Daten, auf deren Grundlage sie ihre Hypothesen entwickeln. Wer etwa das Profil von Dax-Vorständen ermitteln und dazu einfach die KI mit den Daten der bisherigen Mitglieder füttern würde, käme zum Ergebnis, dass Frauen dafür wohl nicht geeignet seien. Die Vorurteile, die sich dahinter verbergen, die eine schon viel zu lange andauernde Benachteiligung bewirken, sie pflanzen sich in den Algorithmen fort - umgeben von Glorienschein des unfehlbaren Computers.

Wer nun denkt, falsche Eingabe, falsche Ausgabe (ein Spruch, der noch aus den Zeiten der Großrechner stammt), auch der täuscht sich. Denn auch die mittlerweile unfassbar kleinen Halbleiter, die in den Prozessoren in Computern, Smartphones und so weiter die ganze Welt in Nullen und Einsen pressen - sie können sich schlicht verrechnen. Das war eigentlich schon immer so, aber zum ersten Mal so richtig einem Massenpublikum klar wurde es in den 1990er-Jahren. Damals passierte dem Chiphersteller Intel ein hochnotpeinliches Malheur, das unter dem Namen Pentium-Bug in die Technik-Geschichte einging.

Wie sehr man der Computertechnik vertraut hatte, wird wohl am ehesten daran klar, welchen Wirbel die Geschichte verursachte, obwohl die Auswirkung gewöhnliche Nutzer so gut wie gar nicht betraf. Auch heutige Prozessoren sind nicht frei von Fehlern, zum Beispiel klaffen in ihnen Sicherheitslücken, die gewiefte Hacker durchaus nutzen können. Auch in Apples neuem M1 wurde jetzt eine entdeckt, die allerdings kein großes Sicherheitsrisiko sein dürfte.

Sicherheit und Computer - das ist ohnehin noch einmal ein ganz anderes Thema.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: