Künstliche Intelligenz:Robotergehirne brauchen Regeln

Zwei Männer stehen sich gegenüber und sind durch Zahnräder PUBLICATIONxINxGERxSUIxAUTxONLY GaryxWate

Elon Musk hält künstliche Intelligenz für gefährlicher als Atomwaffen. Doch die Technologie birgt nicht nur Risiken, sondern auch große Chancen.

(Foto: imago/Ikon Images)

Menschen müssen Verantwortung für die Maschinen übernehmen, die sie entwickeln. Jetzt sind auch Politiker gefragt - doch die wenigsten haben Ahnung von Technologie.

Kommentar von Kathrin Werner

Wer sich gruseln will, sollte sich auf dem Digitalfestival South By Southwest in Texas mit künstlicher Intelligenz beschäftigen: Wissenschaftler berichten dort, dass Menschen mit ihrem Gehirn Prothesen kontrollieren können. Künstliche Intelligenz (KI) werde bald künstliche Körperteile steuern. Robotergehirne werden Arbeiter anheuern, Verbrechen vorhersagen, Drohnen lenken, Gesundheitsdaten sortieren.

Der Zukunftsforscher Ray Kurzweil prophezeit, dass sie 2029 so intelligent sein werden wie wir - und niemand mehr erkennt, ob er mit Maschinen oder Menschen spricht. Elon Musk, Milliardär, Technikfan und Chef von Tesla, hält künstliche Intelligenz für gefährlicher als Atomwaffen.

Sorgen als Zukunftsangst abzutun wie einst jene vor der Eisenbahn, greift zu kurz und ist zu sehr von Technikoptimismus getrieben. Anders als jede Erfindung der Geschichte hat künstliche Intelligenz eine neue Dimension: Niemand versteht sie. Sie entwickelt sich selbst weiter und trifft Entscheidungen, die ihre Erfinder nicht erklären können. Es braucht daher dringend Regeln für Robotergehirne.

Technik entwickelt sich schneller als Gesetze

Nur: Wegen all der Rhetorik um die Robokalypse ist die Gefahr einer Überregulierung noch größer als die Gefahr der KI selbst. Denn diese birgt auch gigantische Fortschrittschancen, etwa wenn es um Heilung von Krankheiten geht, weil sie große Datenmengen viel besser sortieren kann als das menschliche Gehirn. Solche Anwendungen sind bereits Wirklichkeit oder nahe an der Verwirklichung. KI, die die Weltherrschaft übernimmt, bleibt dagegen bislang Science-Fiction.

Die Regulierung künstlicher Intelligenz steht vor einem Grundsatzproblem: Technik entwickelt sich schneller als die Gesetzgebung. Zudem ist KI ein Sammelbegriff, hinter dem sich mehrere Technologien verbergen, es gibt nicht eine künstliche Intelligenz. Hinter diesem Missverständnis steckt die Forderung, eine KI-Kontrollbehörde zu gründen. Das ist eine schlechte Idee. Es gibt ja auch keine Computerbehörde, die Regeln für Rechner setzt. KI ist ein Werkzeug, Regulierung muss dort ansetzen, wo es Schaden anrichten kann.

KI wird kommen, ob wir wollen oder nicht

Autonome Autos etwa dürfen nicht eigenständig entscheiden, Tempolimits zu überschreiten, nur weil Autofahrer um sie herum zu schnell fahren. Es muss Grenzen in Finanzmärkten und der Medizin geben. Künstliche Intelligenz darf keine Gesetze brechen, die für Menschen gelten. Sie darf sie zum Beispiel keine Gespräche im Wohnzimmer ohne Genehmigung aufzeichnen und auswerten. Die Verantwortung muss beim Menschen bleiben.

Die Ausrede "Das war ich nicht, das war meine künstliche Intelligenz" darf nicht gelten. Außerdem muss die KI immer klarmachen, dass sie kein Mensch ist. Zu erwägen wäre auch, dass künstliche Intelligenz andere künstliche Intelligenz beaufsichtigt: ein Roboter, der bremst, wenn autonome Autos zu schnell fahren.

Künstliche Intelligenz wird kommen, ob wir wollen oder nicht. Wenn wir versuchen, den Fortschritt mit Gesetzen auszubremsen, wird China ihn vorantreiben. Bislang sind fast alle Politiker auf einem desolaten Kenntnisstand, im Prinzip wissen sie nur, dass Schlagworte wie Blockchain und KI wichtig sind. Sie müssen sich der Verantwortung stellen und die Angst vor Jobverlusten und Killerwaffen genauso ernst nehmen wie die Chancen der KI. Bevor sie Gesetze schreiben, müssen sie verstehen - selbst wenn die Technik eine Dimension des Unerklärbaren hat.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: