
Im Auto geht die Zeit der Tasten und des Touchscreens zu Ende. BMW experimentiert bereits mit Hologrammen, auch andere Hersteller suchen die Bedienung der Zukunft.
Es ist noch gar nicht so lange her, da gab es für jede Funktion im Auto noch einen eigenen Schalter. Das war praktisch, endete aber irgendwann in einer Tastenflut, da immer mehr Funktionen Einzug hielten. Die Hersteller reagierten darauf mit Infotainmentsystemen, die Einstellungen in Menüs und Untermenüs bündeln und per Touchscreen oder einem zentralen Controller gesteuert werden.
Dann kam zusätzlich die Sprachsteuerung, die ? zunächst nicht sonderlich gut, inzwischen aber durchaus annehmbar ? einige häufig benutzte Funktionen auf Zuruf ausführt. Im vergangenen Jahr brachte BMW eine weitere Eingabemöglichkeit: die Gestensteuerung, zuerst im 7er BMW, ab Februar auch im neuen 5er. Mit Handbewegungen im Raum lässt sich beispielsweise die Lautstärke verstellen, ein Anruf annehmen oder ein Menüpunkt auswählen ? ohne die Hardware direkt zu berühren.
Auf der Consumer Electronics Show (CES) in Las Vegas stellte der bayerische Autohersteller die nächste Ausbaustufe vor: In der futuristischen Sitzkiste BMW i Inside Future ? von einem wirklichen Auto auf der Messe zu sprechen, ginge zu weit ? kommt die HoloActive-Touch-Technik zum Einsatz, die es schon bald in die Serie schaffen könnte.
Dort wo heute der Schalthebel sitzt, werden ähnlich wie bei einem Head-up-Display Hologramme mittels mehrerer Spiegel freischwebend in die Luft projiziert, die nur vom Fahrersitz aus einsehbar sind. Mit den virtuellen Tasten kann der Fahrer zum Beispiel den Radiosender wechseln, er kann ein Telefongespräch beginnen oder aber ? denken wir an das künftige autonome Fahren ? auch einen Film starten.
Für die anderen Passagiere mag es etwas seltsam anmuten, wenn der Fahrer scheinbar wahllos mit dem Finger in der Luft herumstochert. Er selbst aber bekommt sogar haptische Rückmeldung: In dem Moment, wo er mit der Fingerspitze die imaginäre Schaltfläche berührt, spürt er eine kleine Vibration ? hervorgerufen durch Ultraschallwellen aus der Mittelkonsole. Im Grunde gibt der Fahrer seine Anweisungen wie bei der Gestensteuerung, eine Kamera übersetzt sie in die entsprechenden Befehle.
Nicht ganz so zukunftslustig präsentiert sich Mercedes-Benz, doch auch die Stuttgarter machen sich Gedanken, wie die immer mehr werdenden Funktionen und Möglichkeiten für den Fahrer verständlich zusammengefasst werden könnten. Eine Idee: Das immer schlauer werdende Auto könnte zukünftig versuchen vorherzusehen, welche Funktion als nächstes benötigt wird, und nur noch die entsprechenden Tasten virtuell anzeigen.
Volkswagen setzt auf Eyetracking
In eine ähnliche Richtung denken auch Toyota und Honda, die in ihren Zukunftsstudien Concept-i und NeuV Systeme verbauen, die in Kontakt mit dem Fahrer treten und zu erahnen versuchen, wie er sich gerade fühlt. Das Toyota Concept steuert auch selbst und kann über einen virtuellen Assistenten mit dem Fahrer sprechen, um ihn wach zu halten, für den Fall, dass er plötzlich ins Geschehen eingreifen muss. Hondas NeuV versucht die Stimmung des Fahrers zu erkennen und schlägt darauf den passenden Fahrmodus oder Musik vor.
Was im Kopf des Fahrers vorgeht, kann das von Volkswagen in Las Vegas vorgestellte Bedienkonzept noch nicht erahnen, wohl aber, wo er gerade hinschaut. Das neue 3D Active Info Display, ein dreidimensional wirkendes Kombiinstrument, verfolgt mit Eyetracking-Technik den Blick des Fahrers und wählt, je nachdem, wo er hinschaut, das linke oder rechte Menü aus. So soll die Steuerung deutlich vereinfacht werden. Das System soll bereits mit dem nächsten Audi A8 im Sommer 2017 in Serie gehen.
Gleichzeitig präsentierten die Wolfsburger auf der CES ein Head-up-Display mit Augmented-Reality-Ansätzen: Informationen werden zukünftig in zwei Ebenen in die Windschutzscheibe projiziert. Die Fahranweisungen erscheinen dann beispielsweise direkt auf der Straße, während Infotainment-Anzeigen näher am Wagen auftauchen.
Comments by last1left