Forschungsprojekt:Facebook finanziert Ethik-Institut an der TU München

Facebook-Geschäftsführerin Sheryl Sandberg

Wie bei jeder neuen Technologie müsse man auch bei der künstlichen Intelligenz sicherstellen, "dass sie fair ausgestaltet ist und die Grundrechte der Menschen bewahrt", sagte Facebooks Co-Chefin Sheryl Sandberg der FAS.

(Foto: AP)
  • Facebook finanziert das geplante "Institute for Ethics in Artificial Intelligence" der TU München mit insgesamt 6,5 Millionen Euro über fünf Jahre.
  • An dem Institut soll erforscht werden, welche ethischen Grundsätze bei der Entwicklung von künstlicher Intelligenz gelten sollten.
  • Die neue Einrichtung soll Teil des "Munich Center for Technology in Society" werden.

Von Valentin Dornis

Die TU München gründet ein neues Forschungsinstitut, und das Geld dafür kommt aus dem Silicon Valley: Der Internetkonzern Facebook finanziert das geplante "Institute for Ethics in Artificial Intelligence" mit insgesamt 6,5 Millionen Euro über fünf Jahre. Das wurde am Rande der Innovationskonferenz DLD in München bekannt gegeben. An dem Institut soll erforscht werden, welche ethischen Grundsätze bei der Entwicklung von künstlicher Intelligenz (KI) gelten müssen und wie sie umgesetzt werde können.

Mit dem Geld von Facebook soll die Arbeit des "Munich Center for Technology in Society" (MCTS) an der TU ausgeweitet werden, das sich wissenschaftlich mit dem Zusammenspiel von Technologie und Gesellschaft auseinandersetzt. Das neue Institut soll Teil des MCTS werden, leiten wird es Christoph Lütge, Professor am Stiftungslehrstuhl für Wirtschaftsethik. Er ist unter anderem Mitglied der Ethikkommission der Bundesregierung zum Autonomen Fahren. "Unsere Themen liegen an den Schnittstellen zwischen Technologie und menschlichen Werten", sagte Lütge.

Facebooks Co-Chefin Sheryl Sandberg sagte in einem Interview mit der Frankfurter Allgemeinen Sonntagszeitung, das neue Forschungsinstitut werde der Frage nachgehen, "wie man Voreingenommenheit in der künstlichen Intelligenz vermindern kann und wie diese Technologie die Gesellschaft beeinflusst". Wie bei jeder neuen Technologie müsse man sicherstellen, "dass sie fair ausgestaltet ist und die Grundrechte der Menschen bewahrt".

Facebook nutzt auf seiner Plattform KI-Systeme, um zum Beispiel Bilder zu analysieren, Gesichter zu erkennen und Inhalte auszusortieren, die gegen die Richtlinien des Unternehmens verstoßen. Solche automatischen Systeme werden immer wieder kritisiert, etwa weil Fehler unbemerkt bleiben können oder sie ihre Entscheidungen auf einer Datenbasis treffen, die Vorurteile fördert.

Ein Beispiel: Wenn sich aus einem Datensatz herauslesen lässt, dass in den vergangenen Jahrzehnten Frauen deutlich weniger Geld verdienten als Männer, dann leiten automatische Systeme daraus oft ab, dass Frauen weniger leistungsfähig sind - ohne die gesellschaftlichen Hintergründe für die Benachteiligung von Frauen zu berücksichtigen. Derartige "vorurteilsbehaftete Daten", in der Fachsprache "data bias", sind ein wichtiger Aspekt in der Diskussion über Ethik bei künstlicher Intelligenz.

Dass wie nun im Fall von Facebook privatwirtschaftliche Unternehmen öffentliche Universitäten unterstützen, kommt in Deutschland immer wieder vor. Sie finanzieren Hörsäle oder sogenannte Stiftungsprofessuren, darunter Konzerne wie Audi oder Stiftungen wie die von Lidl-Gründer Dieter Schwarz. Kritiker monieren, dass dadurch die Unabhängigkeit der Forschung untergraben würde. Facebook hat betont, das neue Institut werde "akademisch unabhängig" sein. Die TU stellte in einer Mitteilung klar, die Universität werde "von Facebook ohne weitere Vorgaben unterstützt".

Zur SZ-Startseite
FILE PHOTO: Silhouettes of mobile users are seen next to a screen projection of Facebook logo in this picture illustration

Facebook
:"Kaum wird die App geöffnet, landen Daten bei Facebook"

Viele Apps schicken ohne Zustimmung Daten an das soziale Netzwerk. Frederike Kaltheuner von der Organisation Privacy International erklärt, wie Nutzer sich wehren können.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: