Das Konzept des Approximate Computing bekommt seine bislang größte Chance. Die DARPA finanziert einen Chip für das ungenaue Rechnen, und es passt bestens zu den Computer-Herausforderungen von heute.
Ihr Mathelehrer hat gelogen: Manchmal ist es eine gute Sache, nicht so genau zu rechnen.
Das sagt jedenfalls Joseph Bates, Mitgründer und CEO von Singular Computing ? einem Unternehmen, dessen Computerchips absichtlich so verschaltet sind, dass ihre mathematischen Berechnungen nicht ganz richtig sind. Wenn man 1+1 eingibt, bekommt man Antworten wie 2,01 oder 1,98.
Finanziert wurde die Entwicklung des Singular-Chips von der DARPA, der Forschungsagentur des Pentagon. Der Grund: die Ungenauigkeit kann bei manchen sehr schwierigen Computerprobleme von Vorteil sein, etwa beim Auswerten von Videos oder anderen unsauberen Daten aus der echten Welt.
?Nur weil die Hardware Mist ist, muss das von der Software gelieferte Ergebnis nicht auch Mist sein?, sagt Bates. Ein Chip, der nicht garantieren kann, dass jede Berechnung perfekt ausfällt, könne bei vielen Problemen immer noch gute Ergebnisse liefern, brauche aber weniger Transistoren und Energie dafür.
Mit dem Sandia National Lab, der Carnegie Mellon University, dem Office of Naval Research und dem MIT hat Bates in Simulationen getestet, ob der S1-Chips mit seinen ungenauen Operationen bestimmte Computerprobleme tatsächlich effizienter löst. Dabei ging es um die Verarbeitung von verrauschten Daten aus der echten Welt oder um Optimierungen, bei denen Annäherungen als Lösung ausreichen. Bates berichtet von viel versprechenden Ergebnissen bei Anwendungen wie hochaufgelöstem Radar-Imaging, dem Extrahieren von 3D-Informationen aus 2D-Fotos und der Technik Deep Learning, die zuletzt sprunghafte Fortschritte bei künstlicher Intelligenz ermöglicht hat.
Bei einem der Versuche wurde simuliert, wie Software Objekte wie zum Beispiel Autos auf Videos verfolgt. Dabei verarbeitete das Singular-Konzept die einzelnen Frames fast 100-mal schneller als ein konventioneller Prozessor, der nur korrekt rechnen kann; der Stromverbrauch dafür sank auf 2 Prozent des normalen Werts.
Bates ist nicht der Erste mit der Idee, Daten mit ungenauer Hardware effizienter zu verarbeiten, was als Approximate Computing bezeichnet wird. Doch mit der Investition der DARPA könnte der Traum von der unscharfen Mathematik jetzt seine bislang größte Chance bekommen.
Derzeit baut Bates einige Computer, in denen jeweils sechzehn seiner Chips und ein konventioneller Prozessor arbeiten. Die DARPA soll in diesem Sommer fünf dieser Maschinen bekommen und will sie dann online stellen, damit Forscher aus der Regierung und von Universitäten sie ausprobieren können. Die Hoffnung ist, dass dies das Potenzial der Technologie belegen und Interesse bei der Chipindustrie wecken wird.
Die DARPA-Finanzierung für den Chip war Teil eines Programms namens Upside, das auf die Erfindung neuer und effizienterer Methoden zur Video-Verarbeitung abzielt. Denn Militärdrohnen können riesige Mengen an Luftaufnahmen liefern, doch die lassen sich aus der Luft nicht immer versenden, und für die Verarbeitung an Bord ist konventionelle Technik zu schwer.
Damit ungenaue Hardware wirklich ihren Platz findet, wird es noch einige bemerkenswerte Leistungen in der Software-Entwicklung brauchen ? und einen Kulturwandel. Programmierer, die an superpräzise Chips gewöhnt sind, müssten sich erst einmal umstellen, sagt Chistian Enz, Professor an der ETH Lausanne, der selbst Chips für Approximate Computing entwickelt hat. Dafür werden sie auch neue Hilfsmittel benötigen, sagt er.
Für Deb Roy, Professor am MIT Media Lab und der Chef-Medienwissenschaftler von Twitter, verbessern neuere Entwicklungen in der Informatik die Chancen von Approximate Computing aber beträchtlich: Es passe gut zu der immer häufiger werdenden Verarbeitung von Daten, die von Natur aus verrauscht sind, wie bei der Analyse von Fotos und Videos oder bei Versuchen, mit Computern die Welt und menschliches Verhalten zu verstehen.
(Tom Simonite)
Comments by last1left