Künstliche Intelligenz:Moderne Maschinen wachsen Menschen über den Kopf

Spätestens seit dem Sieg von Alpha Go über Lee Sedol ist klar: Menschen haben aufgehört, Computer vollständig zu verstehen.

Von Michael Moorstedt

Es war Isaac Asimov, der in drei Gesetzen niederschrieb, was ein Roboter zu tun und zu lassen hat. Die intelligenten Maschinen dürften keine Menschen verletzen, müssten ihren Schöpfern gehorchen, es sei denn, der Befehl kollidiert mit Regel eins, und sollten ihre eigene Existenz schützen, es sei denn, die Selbsterhaltung verstoße gegen Regel eins und zwei.

Asimov selbst brauchte die drei Gesetze vor allem für seine Romane und Erzählungen. Da es nun aber langsam ernst zu werden scheint mit den intelligenten Maschinen, sehen sich auch die großen IT-Konzerne dazu bemüßigt, ihre eigenen Gesetze zu verfassen. Ende Juni veröffentlichten Google-Forscher "fünf Herausforderungen" zur Sicherheit von künstlicher Intelligenz. Eine Woche später legte Microsoft-CEO Satya Nadella sechs "Grundsätze und Ziele" nach. Unter anderem heißt es bei ihm, man wolle "nicht nur intelligente Maschinen, sondern auch verständliche Maschinen" entwickeln.

Das "Recht auf Vergessenwerden" wird durch das "Recht auf Auskunft" ergänzt

Microsoft steht dabei im seltenen Einklang mit der EU. In der jüngsten Version der Brüsseler Datenschutzgrundverordnung, die 2018 in Kraft treten soll, ist nicht nur das schon bekannte "Recht auf Vergessenwerden" geregelt, sondern auch ein neues "Recht auf Auskunft". Wenn eine Person von der automatisierten Entscheidungsfindung eines Algorithmus betroffen ist, heißt es dort, muss der Verantwortliche "aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung für die betroffene Person" zur Verfügung stellen.

Das Problem liegt bei der Formulierung "involvierte Logik". Denn bislang konnte man mehr oder weniger leicht nachvollziehen, wie ein Computerprogramm eine Entscheidung trifft. Der von Programmierern erstellte Code gibt einen Pfad aus Optionen vor, die entweder befolgt werden oder nicht, je nach Art des Inputs. Im Zeitalter von selbstlernenden Maschinen und Computern, die nach dem Deep-Learning-Prinzip arbeiten, hat sich dieses Prinzip gewandelt. Sie kommen zwar zum gewünschten Ergebnis, man kann aber kaum noch nachvollziehen, wie sie dazu kommen. Sie suchen sich ihren Pfad selbst.

Computer werden immer undurchsichtiger für Menschen

Als beispielsweise im Frühjahr Googles Programm Alpha Go den südkoreanischen Champion Lee Sedol in dem vermeintlich für Computer undurchdringbaren Strategiespiel Go eine vernichtende Niederlage zufügte, wunderten sich zahlreiche Fachleute über die Züge, die der Rechner auswählte. Kein Mensch wäre jemals auf die Idee gekommen, so zu spielen, hieß es. Es ist das Ergebnis von Millionen Zügen, die Alpha Go simulierte und die es dann in Tausenden Partien ausprobierte, die es gegen sich selbst spielte.

Entgegen den Proklamationen der IT-Konzerne werden die Vorgänge im Inneren der Computer also bereits jetzt immer undurchsichtiger. Durch Deep Learning hat der Mensch zum ersten Mal Maschinen erschaffen, die er nicht mehr zur Gänze versteht. Da helfen auch keine Transparenz-Manifeste.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: