Zukunft der Mobilität:Das Auto denkt bald selbst

Selbstständig fahrende Autos

Für das autonome Fahren müssen die Computer an Bord enorme Rechenleistungen bringen.

(Foto: Daniel Naupold/dpa)

Künstliche Intelligenz ist der Schlüssel zum autonomen Fahren. Auf der Messe CES präsentieren Hersteller nun die nächsten Schritte.

Von Joachim Becker

Nach Jahren mühsamer Fortschritte avancieren digitale Assistenten vom 4. Januar an zum Trendthema auf der Elektronik-Messe CES in Las Vegas. Mercedes will als erste Marke ein Helferlein ins Auto bringen, das mehr kann als navigieren und E-Mails vorlesen. "Wie können wir den Kunden Zeit zurückgeben?", fragt Sajjad Khan, Leiter Digital Vehicle & Future Mobility im Daimler-Konzern. "Unsere Antwort ist ein intelligentes System, das auf maschinellem Lernen basiert und sich auf Wunsch die Gewohnheiten des Fahrers merkt." Von Sommer 2017 an können Mercedes-Fahrer die Google-Home-Dienste zunächst aus den Bereichen Musik, Navigation und Telefonie nutzen. Die Partnerschaft ist nicht exklusiv, andere Hersteller werden die digitalen Assistenten ebenfalls ins Auto bringen.

Mama ist der Prototyp für solche personalisierten Dienstleistungen. In Werbefilmen werden Amazon Alexa und Google Home als familiengerechte Kümmerer für alle Lebenslagen präsentiert. Schon in den Fünfzigerjahren wollten Wissenschaftler eine Maschine als "generellen Problemlöser" schaffen. Fleißig wurden die ersten Großrechner mit Expertenwissen gefüttert. Statt eines Superhirns entstand jedoch nur eine höhere Form von Buchhaltungsprogramm mit starrem Regelwerk. Deshalb konzentrierten sich Forscher und Entwickler zunächst auf spezifische Probleme wie Sprache, Text- und Bilderkennung. Im Gegensatz zu Mama haben vermeintlich intelligente Maschinen bisher kein oder kaum Kontextverständnis. Die meisten Sprachcomputer im Auto können sich noch nicht einmal merken, was im Dialog zwischen Mensch und Maschine bereits gesagt worden ist.

Künstliche Intelligenz wird dem Menschen überlegen sein

Von wegen künstliche Intelligenz: Programmierte Maschinen warten auf eindeutige Befehle. Dann arrangieren sie ein paar Worthülsen rund um ein klar definiertes Themengebiet. Trotzdem ist die Nachfrage in den USA nach digitalen Assistenten groß. Wie so oft ist es die richtige Verbindung mehrerer Technologien, die plötzlich ein exponentielles Wachstum auslöst: "Es geht um Computer, die denken und handeln wie wir Menschen und die bei allem hinzulernen, was sie tun", sagt Bernhard Rohleder vom Hightech-Verband Bitkom. Möglich wird der Eindruck eines intelligenten Gegenübers durch neuronale Netzwerke mit einer exponentiell gestiegenen Rechenleistung. Dass die Sprachausgabe noch immer extrem limitiert ist, scheint kaum jemanden zu stören.

"Künstliche Intelligenzen werden fast alles erlernen, was Menschen können - und noch viel mehr", erwartet Jürgen Schmidhuber. Der Professor ist überzeugt: "Es wird nicht mehr Jahrhunderte dauern, bis wir wahre künstliche Intelligenz entwickelt haben, sondern höchstens noch Jahrzehnte." Schmidhuber ist seit 1995 Co-Direktor des Schweizer Instituts für künstliche Intelligenz (IDSIA). Einer seiner Studenten war 2011 an der Gründung von Deepmind beteiligt. Die auf neuronale Netze spezialisierten Experten wurden später von Google übernommen. Im März dieses Jahres hat Deepmind erstmals einen der weltbesten Spieler im asiatischen Strategiespiel Go geschlagen. Ein Triumph, der in der Schachwelt schon 20 Jahre zurückliegt: 1997 siegte der Supercomputer Deep Blue zum ersten Mal über den Schachweltmeister Garri Kasparow.

Der Durchbruch kam mit einem lernenden Algorithmus

Auch im Auto machen die vermeintlich intelligenten Beifahrer Fortschritte: Nuance hat im BMW 7er erstmals eine cloudbasierte Spracherkennung realisiert, die einem natürlichen Sprachverstehen nahe kommt. Entscheidend ist aber weniger die Online-Anbindung als vielmehr der Übergang vom programmierten zum selbst lernenden System: "Seit 1998 arbeiten wir an einer Bilderkennung für Fußgänger, in Serie gegangen ist das System 2013 als Notbremssystem", sagt Uwe Franke, Leiter Bildverstehen bei Daimler. Bisher versuchte das Kamerasystem hinter der Windschutzscheibe, bestimmte Muster in Millionen von Bildpunkten zu erkennen: ein Auto, einen Fußgänger oder einen Radfahrer. Weil die Rechenleistung und die Zahl der programmierten Objekte beschränkt war, konnte das System vieles nicht erkennen, was für den Menschen offensichtlich ist.

Der Durchbruch kam im vergangenen Jahr mit einem lernenden Algorithmus: "Das Faszinierende ist, dass sich das System jetzt nicht auf einen einzelnen Aspekt konzentriert, sondern das Ziel hat, jeden Bildpunkt einer von 30 Klassen zuzuordnen - im Prinzip also 30 Klassifikationsprobleme parallel zu lösen", erklärt Franke. Das neuronale Netzwerk hat die Leistung der Mustererkennung um zehn Prozent auf 75 Prozent gesteigert. Das scheint nicht besonders viel zu sein. Doch beim Erkennen von Bildinhalten schneidet die selbstlernende Software mittlerweile sogar besser ab als der Durchschnitt der menschlichen Probanden. Zumal Verwechselungen meistens innerhalb einer Klasse stattfinden: Das System erkennt eine Mauer als Haus, einen Omnibus als Lastwagen. Oder einen Elefanten als Fußgänger. Das ist zwar grotesk-komisch, aber nicht wirklich sicherheitsrelevant.

Sensoren und Bilderkennung allein reichen nicht aus

Nun soll eine entsprechende hochleistungsfähige Grafikkarte Automobil-tauglich werden. "In zwei bis drei Jahren werden die Zulieferer die elektrische Verlustleistung von 250 Watt auf 10 bis 25 Watt reduziert haben. Damit haben wir die Hardware-Voraussetzungen für ein solches System im Auto", ist Franke zuversichtlich. In Bezug auf die starke künstliche Intelligenz ist der erfahrene Entwickler aber eher zurückhaltend: "Man spricht von lernenden Maschinen, das bessere Wort wäre aber: trainieren mit einer definierten Zielstellung." Das hätten die Forscher schon seit Jahrzehnten gemacht, "doch die Rechenleistung ist heute mit einem Terraflop pro Chip enorm viel größer".

Bisher sind software-basierte Maschinen in der Lage, logische Schlüsse zu ziehen und entsprechende Handlungen abzuleiten. Schon jetzt zeichnet sich ab, dass lernende Maschinen künftig zunehmend auf unerwartete Ereignisse reagieren können. Dadurch kommt das autonome Fahren in Sichtweite: Dafür genügt es nicht, wie bei Teslas Autopiloten, die Umwelt durch Sensoren grob zu erfassen. Ähnlich wie ein routinierter menschlicher Pilot müssen hoch automatisierte Fahrzeuge lernen, das Verkehrsgeschehen zuverlässig einzuschätzen. "Bilderkennung allein reicht dafür nicht aus", sagt Franke. "Das System muss auch die Semantik der Szene verstehen, um den Verlauf vorhersagen zu können."

Enorm gesteigerte Komplexität im Straßenverkehr

Diese vorausschauende Fahrwegsplanung ist im Prinzip nichts anderes als ein Schach- oder Go-Spiel. Der Unterschied liegt in der enorm gesteigerten Komplexität: Im Straßenverkehr ist die Zahl der möglichen Varianten um ein Vielfaches höher als in einem regelbasierten Spiel - eben weil sich die Verkehrsteilnehmer nicht notwendig an die Regeln halten. Trotzdem werden die Autohersteller 2017 mit großen Flottentests zum autonomen Fahren in der Stadt beginnen.

Die intelligenten Systeme lassen viele Teilnehmer der CES bereits von einer "neuen Ära der Menschheit" träumen. So auch Jen-Hsun Huang, den Gründer und Vorstandschef des US-Grafik-Chipherstellers Nvidia: "Künstliche Intelligenz wird einen größeren Einfluss auf unser Leben haben als die Erfindung des Computers, des Internets oder des Mobiltelefons zusammen."

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: