Wie klug wird Facebook?

Mit künstlicher Intelligenz will das soziale Netzwerk seinen Dienst zum Leben erwecken ? und zum digitalen Assistenten für den Alltag machen. Ein Besuch in Facebooks KI-Zentrale.

Vor zwanzig Jahren hat Yann LeCun schon einmal versucht, die künstliche Intelligenz neu zu erfinden. Beinah zehn Jahre lang hatte der junge Franzose eine Idee verfolgt, von der viele seiner Informatiker-Kollegen gar nicht viel hielten: dass die Imitation einzelner Gehirnfunktionen der beste Weg sei, intelligente Maschinen zu erschaffen. Bei den Bell Labs entwickelte er eine Software, die Neuronen simulierte, um Handschrift zu lesen. 1995 war LeCun so weit: Bell Labs’ Muttergesellschaft AT&T vermarktete die ersten Maschinen, die handgeschriebene Schecks und Formulare einlesen konnten.

Doch während LeCun gerade die Einführung seiner Bankautomaten feierte, kündigte AT&T die Aufspaltung des Konzerns in drei Einzelunternehmen an. LeCun wurde zwar Forschungsleiter einer verschlankten AT&T, er sollte aber künftig an anderen Projekten arbeiten.

Doch LeCun trieb seine Idee zusammen mit einer Handvoll anderer unbeirrt voran ? durch zwei Jahrzehnte voller Gleichgültigkeit und gelegentlich offener Ablehnung aus dem Kollegenkreis. Heute ist sie unter dem Namen Deep Learning bekannt. Google, Microsoft, Baidu und andere wetteifern, wer diese Technologie, mit der sich eindrucksvolle Erfolge bei der Gesichts- und Spracherkennung erzielen lassen, als Erster in Produkten einsetzt. Und auch diesmal ist LeCun wieder vorn mit dabei, diesmal im Auftrag von Facebook. Das Unternehmen warb ihn im Dezember 2013 von der New York University ab und ernannte ihn zum Leiter eines neuen Forschungsteams für künstliche Intelligenz (KI). Die Abteilung, Fair genannt (für Facebook AI Research), hat zurzeit 50 Mitarbeiter, soll aber auf 100 wachsen. LeCuns Gruppe ist damit Facebooks erstes ernsthaftes Investment in Grundlagenforschung.

LeCun will Software mit Sprachfähigkeiten und “gesundem Menschenverstand” entwickeln, die einfache Konversationen beherrscht. Statt mit Maschinen über Mausklicks oder sorgfältig ausgewählte Suchbegriffe zu kommunizieren, würden wir ihnen einfach erzählen, was wir wollen ? als sprächen wir mit einer Person. “Unsere Beziehung mit der digitalen Welt wird sich durch intelligente Agenten, mit denen Sie interagieren können, komplett verändern”, verspricht er.

Derartige Kunststücke sind mit heutiger Technik nicht möglich. Apples Siri versucht zum Beispiel, Sprachbefehle in eine kleine Anzahl von Kategorien einzusortieren, die festgelegte Reaktionen auslösen. Andere Systeme, wie IBMs “Jeopardy!”-Gewinner Watson, meistern zwar scheinbar komplexe Sprachaufgaben, sind jedoch hochspezialisiert auf bestimmte Aufgabengebiete.

Im Gegensatz dazu sollte “tieflernende” Software in der Lage sein, Sprache ähnlich zu interpretieren, wie Menschen es tun. Den ersten Schritt hat LeCuns Team bereits geschafft: Es hat ein System entwickelt, das eine einfache Geschichte lesen und Verständnisfragen beantworten kann. Es nutzt dabei Fähigkeiten wie logisches Schließen und ein rudimentäres Verständnis von Zeit.

Die Wurzeln dieser Technologie reichen weit zurück: Die Kernidee war von Anfang an, dass sich Verbindungen zwischen Neuronen umso mehr verstärken, je öfter diese Zellen miteinander kommunizieren. 1956 verwendet der Psychologe Frank Rosenblatt diese Theorien zur einfachen Simulation neuronaler Netze in Software und Hardware. Rosenblatts Perzeptron, wie er seinen Entwurf nannte, konnte lernen, einfache Bilder in Kategorien ? zum Beispiel Dreiecke und Quadrate ? einzusortieren.

Seine Idee wurde zu einem Dreh- und Angelpunkt des damals neu entstehenden Forschungsgebiets künstliche Intelligenz. Schon bald, versprach Rosenblatt, wären Perzeptrons mit mehreren sukzessiven Stufen des Lernens in der Lage, beispielsweise Menschen mit ihrem Namen zu begrüßen.

Doch leider erfüllte Rosenblatts Algorithmus nicht die Erwartungen seines Schöpfers. 1969 veröffentlichte der KI-Pionier Marvin Minsky, der mit Rosenblatt auf die Highschool gegangen war, eine vernichtende Kritik. Minsky wies nach, dass auch Perzeptron-Netzwerke mit mehreren Schichten nicht mächtig genug werden könnten, um von praktischem Nutzen zu sein. Die meisten KI-Forscher gaben die Idee auf.

Nicht jedoch LeCun. Er war fasziniert, als er in den frühen 1980er-Jahren als Ingenieurstudent in Paris von Perzeptrons las. Ganze Tage verbrachte er in einer Forschungsbibliothek nahe Versailles mit der Suche nach wissenschaftlichen Veröffentlichungen, bevor die Forschung an Perzeptrons ausstarb. Dann entdeckte er, dass eine kleine Gruppe von Forschern in den Vereinigten Staaten im Verborgenen begonnen hatte, weiter an neuronalen Netzen zu arbeiten. “Das war wirklich eine Untergrundbewegung”, sagt er. Um Ablehnungen beim Peer Review zu entgehen, vermieden die Forscher in ihren Aufsätzen sorgfältig den Gebrauch von Begriffen wie “neuronal” oder “Lernen”. Nichtsdestotrotz arbeiteten sie an etwas, das Rosenblatts altem Problem, neuronale Netzwerke mit mehreren Lernstufen zu trainieren, äußerst ähnlich sah.

LeCun schloss sich dieser Untergrundbewegung an, nachdem er 1985 ihre zentralen Figuren kennengelernt hatte, darunter einen leicht verschrobenen Briten namens Geoff Hinton, der heute bei Google und der University of Toronto arbeitet. Sie wurden sofort Freunde, gegenseitige Bewunderer ? und der Kern einer kleinen Gemeinde, die die Idee der neuronalen Netzwerke wiederbelebte.

Nachdem LeCun 2003 an die New York University kam, gründeten er, Hinton und ein Professor der University of Montreal namens Yoshua Bengio eine Gruppe, die LeCun heute die “Deep-Learning-Verschwörung” nennt. Um das Jahr 2010 begann Deep Learning, etablierte Techniken bei Alltagsaufgaben zu schlagen, zum Beispiel dem Klassifizieren von Bildern. Doch neuronale Netze waren den meisten Forschen noch fremd und galten weiterhin als unnütz.

2012 änderte sich das: Erstmals gelang es Hinton und zwei Doktoranden, mithilfe eines tiefen neuronalen Netzwerks die Konkurrenz beim wichtigsten Wettbewerb für Bilderkennung zu schlagen. Bei der “ImageNet Large Scale Visual Recognition Challenge” muss die Software 1000 unterschiedlichste Objekte in verschiedenen Bildern identifizieren, von Moskitonetzen bis Moscheen. Die Software aus Toronto war um zehn Prozent besser als die des zweitplatzierten Wettbewerbers. Im Dezember 2013 verblüffte der Facebook-CEO Mark Zuckerberg die akademische Gemeinde, indem er auf der größten Forschungskonferenz für neuronale Netze zu einer Party einlud und bekannt gab, dass LeCun das Fair-Team gründen würde.

Facebooks New Yorker Büro erreicht man von LeCuns Universitätsbüro nach einem dreiminütigen Spaziergang den Broadway hinauf. Es residiert auf zwei Etagen eines Gebäudes, das im frühen 20. Jahrhundert als Kaufhaus erbaut wurde. In dem Großraumbüro sind die Arbeitsplätze dichter gepackt als in Facebooks Hauptquartier im kalifornischen Menlo Park. Trotzdem lassen es sich die Mitarbeiter nicht nehmen, auf lenkbaren Skateboards unterwegs zu sein. Ausgehängte Zettel laden zu einem wöchentlichen Trinkspiel mit Bier und Pingpong-Bällen ein. Fast die Hälfte von LeCuns Team aus führenden KI-Forschern arbeitet hier, der Rest auf Facebooks kalifornischem Campus oder in einem Pariser Büro. “Ich habe alle Leute aus diesem Bereich eingestellt, die ich kriegen konnte”, sagt LeCun.

Dieser Text ist der Zeitschriften-Ausgabe 10/2015 von Technology Review entnommen. Das Heft kann, genauso wie die aktuelle Ausgabe, hier online bestellt werden.

Version zum Drucken

Interview lesen