Künstliche Intelligenz:Der gläserne Mensch wird durch KI noch transparenter

Artificial intelligence and cybernetics Artificial intelligence Abstract image of a human brain and

Künstliche Intelligenz kann viele Dinge besser als Menschen, sie weiß nur nicht warum.

(Foto: imago/Science Photo Library)
  • Deutschland liegt im Rennen um künstliche Intelligenz hinter anderen Nationen zurück.
  • Investitionen von EU und Bundesregierung sind deshalb eine gute Idee. Deutschland sollte dabei aber nicht auf ethische Standards verzichten.
  • So könnte künstliche Intelligenz "Made in Germany" einen unerwarteten Wettbewerbsvorteil erlangen.

Gastbeitrag von Peter Buxmann

Am Thema künstliche Intelligenz (KI) scheiden sich die Geister. Die einen befürworten eine intensive Nutzung von KI, darunter zum Beispiel der Facebook-Gründer Marc Zuckerberg. Er propagiert neue gesellschaftlich wünschenswerte Anwendungen wie etwa den Einsatz in der medizinischen Diagnose und Therapie. Eine große Zahl von Beratungsfirmen baut KI-Abteilungen auf und verdient damit viel Geld.

Der US-amerikanische Wirtschaftswissenschaftler Erik Brynjolfsson vom Massachusetts Institute of Technology bezeichnet künstliche Intelligenz als die bedeutendste "General Purpose Technology" (Basistechnologie) unserer Zeit. Die unzähligen Möglichkeiten, KI im Alltag oder branchenübergreifend in Unternehmen anzuwenden, scheinen ihm recht zu geben. Hinzu kommt, dass die Algorithmen viele Jobs in der Regel sehr gut erledigen: Sie analysieren auf Basis von CT-Bildern Krankheiten, sagen Aktienkurse vorher, erkennen Gesichter oder verhindern Cyberangriffe.

Künstliche Intelligenz: Peter Buxmann, 54, ist Universitätsprofessor für Wirtschaftsinformatik, Software & Digital Business an der TU Darmstadt und leitet dort auch das Innovations- und Gründungszentrum HIGHEST.

Peter Buxmann, 54, ist Universitätsprofessor für Wirtschaftsinformatik, Software & Digital Business an der TU Darmstadt und leitet dort auch das Innovations- und Gründungszentrum HIGHEST.

(Foto: OH)

Auf der anderen Seite gibt es viele Kritiker, Tesla-Chef Elon Musk etwa, und auch das verstorbene Physik-Genie Stephen Hawking gehörte dazu. Die Befürchtung: KI könnte sich eines Tages selbst verbessern, sodass in einem sich verstärkenden Kreislauf eine Superintelligenz entsteht - ein Intellekt also, der dem Menschen in allen Bereichen überlegen ist und ihn beherrscht. Zukunftsforscher Ray Kurzweil ist angeblich sogar in der Lage, ein Datum zu nennen, wann dies passieren wird: im Jahr 2045. Ob die Prognose seriös ist, darf bezweifelt werden.

Algorithmen sind bisher nur sehr beschränkt einsetzbar

Algorithmen oder Roboter, die der Menschheit überlegen sind, sind seit Jahrzehnten ein beliebtes Thema und Gegenstand von Dystopien oder Science-Fiction-Filmen wie "Alien", "Blade Runner" oder "Terminator". Herbert A. Simon, einer der Väter der KI, sagte schon 1965 voraus, dass es nur noch zwanzig Jahre dauern werde, bis Maschinen in der Lage seien, jede Arbeit zu erledigen, die bislang Menschen vorbehalten war. Der Status quo der KI-Anwendung sieht dagegen so aus: Algorithmen sind darauf spezialisiert, bestimmte Probleme zu lösen; darin sind sie kaum zu schlagen, aber kein Algorithmus würde auf die Idee kommen, sein Anwendungsgebiet zu erweitern. Es gibt auch keine erfolgversprechenden Ansätze, die in der Lage wären, eine solche Superintelligenz mit eigenem Bewusstsein zu entwickeln.

Ist also alles in bester Ordnung? Können wir sorglos in eine Zukunft blicken, in der KI uns bei vielen Tätigkeiten und Entscheidungen unterstützt und unsere Gesellschaft dadurch verbessert? So einfach ist es leider nicht. Wir müssen beachten, dass es sich bei den meisten KI-Algorithmen um "Black Boxes" handelt. Sie geben häufig nicht preis, warum sie wie entschieden haben. Das mag in manchen Fällen unproblematisch sein, in vielen anderen ist es das aber nicht.

In einigen Unternehmen sind heute schon KI-Lösungen bei der Auswahl von Personal im Einsatz. Arbeitet der Algorithmus nach dem Black-Box-Prinzip, können wir die Auswahlentscheidung nicht erklären. Zudem wissen wir nicht, ob der Algorithmus Parameter wie Geschlecht, Hautfarbe oder Religion in seine Entscheidung einbezogen hat. Wollen wir solche Algorithmen? Die Antwort muss heißen: nein.

Der künstlichen Intelligenz Grenzen setzen

Ein weiterer kritischer Punkt ist das Thema Privatsphäre. KI-Algorithmen können relativ gut Daten verknüpfen und Personen zuordnen. Diese Algorithmen und Technologien könnten Wegbereiter für mehr Überwachung durch Staaten oder Firmen sein. So sind in China bereits erste Modelle im Einsatz, die Menschen anhand ihres Online- und Offline-Verhaltens bewerten. Dieses "Scoring" wird für Entscheidungen über die Vergabe von Krediten, Ausreisegenehmigungen oder den Zugang zum Internet herangezogen. Der sprichwörtliche gläserne Mensch wird durch KI noch transparenter. Auch hier lautet die Antwort auf die Frage, ob wir eine solche Gesellschaft wollen: nein.

Was folgt daraus? Ich denke nicht, dass wir KI-Forschung verteufeln und darauf verzichten sollten. Im Gegenteil, ein großes Problem für Europa und Deutschland besteht darin, dass wir im Bereich der künstlichen Intelligenz ins Hintertreffen geraten sind - wie bei anderen Digitalisierungsthemen auch. Die Investitionen in KI-Start-ups sind überwiegend auf zwei Länder verteilt: 48 Prozent dieser Investitionen entfielen im vergangenen Jahr auf China, weitere 38 Prozent auf den langjährigen Spitzenreiter USA. Der Rest der Welt ist weit abgeschlagen. Für Deutschland, eigentlich die Heimat vieler herausragender KI-Forscher, reicht es selbst in Europa nicht zum Spitzenplatz. Den hat Großbritannien inne, wo Start-ups wie Darktrace und Graphcore inzwischen den sogenannten Unicorn-Status erreicht haben, also mit mehr als einer Milliarde Dollar bewertet sind.

Interdsiziplinäre Forschung soll uns auf das KI-Zeitalter vorbereiten

Insofern gehen die Schritte von Europäischer Union und Bundesregierung in die richtige Richtung, mit Investitionen diesen Rückstand aufzuholen. Allerdings dürfen wir dabei nicht die Augen vor gesellschaftlich relevanten Themen wie Transparenz und Privatsphäre verschließen. Vor diesem Hintergrund erscheint insbesondere die Förderung von interdisziplinären Forschungsprojekten wünschenswert. Nur solche fächerübergreifenden Programme sind in der Lage, die potenziellen Folgen für Gesellschaft und Wirtschaft umfassend zu analysieren und soziologisch, historisch oder philosophisch gewonnene Erkenntnisse in die technologischen Entwicklungen zu integrieren.

Darüber hinaus besteht eine wichtige praktische Aufgabe darin, mehr Bewusstsein für die aktuellen Herausforderungen der KI zu schaffen. In einer aktuellen Studie zur KI-Nutzung im Personalbereich zeigte sich, dass vielen Verantwortlichen nicht bewusst war, dass sie mit einer Black Box arbeiten, die aufgrund des Algorithmus oder der Trainingsdaten rassistische oder sexistische Entscheidungen treffen könnte. Den Entscheidern ging es primär darum, Kosten und Zeit einzusparen. Erfreulicherweise gibt es aber bereits Ansätze in der Forschung, die sich um Transparenz bemühen, damit die Entscheidungen der KI für die Menschen nachvollziehbar werden. Intensive Aufklärung könnte den Anstoß dazu geben, dass KI-Nutzer zukünftig auf transparente und faire Algorithmen setzen.

Eine große Zahl von Menschen ist mittlerweile bereit, für Fair-Trade-Produkte einen hohen Preis zu zahlen. Vielleicht lässt sich diese Erfolgsgeschichte auch auf KI-Algorithmen übertragen. Deren Fairness könnte für die Anbieter und für die europäische Wirtschaft insgesamt zu einem Wettbewerbsvorteil werden.

Zur SZ-Startseite

Digitalgipfel der Bundesregierung
:Künstliche Intelligenz wird überschätzt

Die Superintelligenz wird uns nicht vernichten, teils funktionieren noch nicht einmal einfache KI-Produkte richtig. Dennoch darf Deutschland diese nächste Welle der Digitalisierung nicht verschlafen.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: