PDF DOWNLOAD

Die Idee, ein Gerät mittels Gesten zu steuern, ist nicht neu: Gute 15 Jahre ist es her, als sich ein Genie namens Steve Jobs über die Zukunft von Laptop und Mobiltelefon Gedanken machte. Die Vision einer schwarzen Glasplatte, auf der fast alle Funktionen mit der Fingerspitze bedienbar sind, war geboren. Nach jahrelanger Arbeit wurde schließlich ein berührungsempfindliches Display, das sogar mehrere Eingaben gleichzeitig verarbeiten konnte, präsentiert und begann die Technik in unserem Alltag zu revolutionieren.

Der einfache Fingertipp, um ein Programm zu starten, die schnelle Wischbewegung, um die Anzeige zu wechseln, oder das bequeme Scrollen durchs Telefonverzeichnis, das sind Fingerübungen, die vielen von uns längst in Fleisch und Blut übergegangen sind. Geräte, die noch Schalter und Regler besitzen, erscheinen da wie Relikte aus einer anderen Zeit. Doch eines dieser Relikte ist uns wohl bekannt – das Auto.

Zwar sind Multi-Touch-Oberflächen heute schon vom Kleinst- bis zum Luxuswagen anzutreffen, dennoch bergen sie für Fahrer eine große Gefahr – die Ablenkung durch die Sicht auf das berührungsempfindliche Display. Abhilfe soll die Bedienung per Geste schaffen. Dazu erkennt eine Kamera in der Mittelkonsole typische Handbewegungen des Fahrers, der Computer wertet die Aufnahme aus und interpretiert blitzschnell die Wünsche des Menschen am Steuer. Um die Ablenkung weiter zu reduzieren, integriert der Autozulieferer Continental diese Kamera inzwischen ins Lenkrad, sodass der Autofahrer Hand oder Finger nur kurz bewegen muss, um beispielsweise die Lautstärke des Autoradios zu regulieren, das Navi einzustellen oder einen Telefonanruf anzunehmen.

Doch wenn es nach dem Willen der Forscher geht, soll in Zukunft noch nicht einmal die Hand bewegt werden, um Radio, Klimaanlage oder Bordcomputer zu steuern. Die Zukunft könnte das „Eye-Tracking“ sein, sprich das Reagieren auf Augenbewegungen des Fahrers. Was ein wenig nach Science-Fiction klingt, ist aber technisch offenbar bereits möglich. So steht der französische Automobilzulieferer Valeo nach eigenen Angaben kurz vor der Serienreife. Geht es nach den Franzosen soll das Eye-Tracking mit einem Head-up-Display kombiniert werden, worüber Anzeigen und Symbole in eine Scheibe vor dem Fahrer projiziert werden. Ruht der Blick dort beispielsweise für eine gewisse Zeit auf dem Telefonsymbol, erscheint automatisch die Liste der gespeicherten Rufnummern. Nach einem weiteren Blickkontakt stellt das System die gewünschte Verbindung her. Ähnliches zeigte Mercedes-Benz im Forschungsfahrzeug 015: Auch hier genügt ein Blick auf ein bestimmtes Feld auf dem Display und die Elektronik reagiert, indem sie ein weiteres Menüfenster öffnet und so die nächsten Bedienschritte vorbereitet. Die muss man dann allerdings per Geste oder Fingerzeig ausführen.

Dass die Gestensteuerung kein Thema der Zukunft ist, sondern schon heute Realität ist, beweisen sowohl der neue 5er und 7er von BMW als auch der neue VW Golf. In den beiden Modellen aus München dient die Gestensteuerung beispielsweise als Bedienelement für das Autotelefon, das Infotainmentsystem und bestimmte Assistenzsysteme. Mit einer Winkbewegung vor dem Display können etwa Radiosender gewechselt und die Lautstärke kann verändert werden, bei der Rückwärtsfahrt kann die Rückfahrkamera mit Gesten gesteuert werden: Werden Daumen und Zeigefinger gedreht, verändert sich die Perspektive der Kameraansicht – dieses Assistenzsystem der Bayern soll den toten Winkel verabschieden und lässt sich dank der Gestensteuerung im Auto beliebig und schnell an die Bedürfnisse des Autofahrers anpassen.

Die Erkennung der Gesten erfolgt bei BMW über eine im Dachhimmel angebrachte Kamera. Bisher kann das System vier vordefinierte Gesten erkennen, dabei ist es dem Fahrer aber möglich, die Zuordnung bestimmter Gesten zu bestimmten Funktionen selbst vorzunehmen. Die relativ eingeschränkte Anzahl an definierten und erkennbaren Gesten zeigt, dass sich die Gestensteuerung noch in der Entwicklung befindet. Auch die BMW-Entwickler sehen sie derzeit als Ergänzung zu den bestehenden Bedienungssystemen: Neben Touchpads, Schaltern, iDrive-Drehrad und Spracheingabe steht nun auch die Gestensteuerung. Jedoch hat diese scheinbare Spielerei im Cockpitdesign eine wichtige Funktion: Die wachsende Zahl an Funktionen – Assistenzsysteme, Entertainment, Navigation, Concierge – wird durch Gestensteuerung im Auto ohne zusätzliche Knöpfe und Tasten beherrschbar.

Eine Herausforderung, der sich kaum jemand bewusst ist, sind die unterschiedlichen Gesten in verschiedenen Ländern: Je nach Kultur und Land kann sich die Bedeutung einer Handbewegung verschieben. Beispielsweise das in Deutschland übliche Zeichen fürs Telefonieren – Daumen und kleiner Finger sind abgespreizt – wird logischerweise auch bei BMW genutzt, um ein Telefonat anzunehmen. Ein Australier wäre jedoch über diese Geste im Auto recht überrascht, denn für ihn bedeutet die Geste so viel wie „Alles in Ordnung“.

Als erstes Volumenauto verfügt der neue Golf von Volkswagen über eine Gestensteuerung, welche ab sofort mit dem Topsystem – „Discover Pro“ – des Modularen Infotainmentbaukastens (MIB) erhältlich ist. Die Gestensteuerung funktioniert in verschiedenen Menüs: Durch eine Wischgeste mit der Hand werden die horizontal angeordneten Menü-Punkte nach links oder rechts verschoben. Der Fahrer kann sich so durch das Hauptmenü bewegen, die Radiosender ändern und die Playlist vor- und zurückschalten sowie im „Picture Viewer“ und in den Musikalben (Coverflow) blättern. Ein Lichtreflex und ein visualisiertes „Hand-Symbol“ zeigen dabei an, welche Kontexte per Gestensteuerung bedienbar sind. Unterstützt wird die Bedienung durch ein visuelles Interaktionsfeedback; eine erfolgreich ausgeführte Wischgeste wird zudem über einen abschaltbaren Soundeffekt bestätigt.

Während der Golf nur eine und die BMW-Modelle immerhin schon eine Handvoll Gesten beherrschen, ist der Zulieferer Panasonic schon weiter. In einer Cockpit-Studie, die noch im Laufe dieses Jahrzehnts in Serie gehen könnte, erfassen zwei Infrarot-Kameras bereits 15 Handbewegungen. Mit ihnen kann man zum Beispiel einzelne Menüpunkte auswählen, die Informationen auf unterschiedlichen Bildschirmen verteilen, den Radiosender wechseln oder die Lautstärke regeln.

Noch einen Schritt weiter geht man bei einigen Konzepten, die auf der diesjährigen Consumer Electronics Show (CES) in Las Vegas vorgestellt wurden. So zeigt das vom Toyota CALTY Design Research und dem Toyota Innovation Hub entwickelte Concept-i ein Fahrzeug, welches mit seinen Insassen kommuniziert. Herzstück der Studie ist eine künstliche Intelligenz namens „Yui“, die von der Person am Steuer lernt, sich weiterentwickelt und eine Beziehung zum Insassen aufbaut. Nähert sich beispielsweise jemand dem Fahrzeug, erscheint Yui an der Fahrertür und begrüßt den Einsteigenden. Unterwegs messen die im Konzeptfahrzeug eingesetzten Technologien die Emotionen des Fahrers und ordnen sie verschiedenen Aufenthaltsorten zu.

Mercedes-Benz verfolgt bei der Gestaltung der Mobilität der Zukunft einen ähnlichen Ansatz: Dabei stehen in Stuttgart vor allem kognitive Fahrzeuge im Fokus, die über genügend Wissen über ihre Umwelt verfügen, um nicht nur auf bestimmte Situationen reagieren, sondern selbstständig handeln zu können. Gepaart mit entsprechenden Services könnten sie zur Grundlage für ein nachhaltiges und intelligentes Mobilitätssystem der Zukunft werden. Dabei sollen die kognitiven Fahrzeuge auch in der Lage sein, die Wünsche ihrer Insassen zu erkennen und nach Möglichkeit zu erfüllen. Dazu sammelt das System Informationen über das Verhalten und die Gewohnheiten des Fahrers. Mit diesen Informationen macht das System personalisierte Vorschläge, sobald der Fahrer einsteigt. Zum Beispiel werden ihm ein mögliches nächstes Fahrtziel, passende Musik oder der richtige Kontakt für ein Telefongespräch angeboten.

Dichter an der Serienreife ist man mit dem ebenfalls in Las Vegas vorgestellten BMW HoloActive Touch: Dabei soll die Schnittstelle zwischen Fahrer und Fahrzeug ein virtueller Touchscreen sein, dessen frei im Raum schwebende Anzeige mit Fingergesten bedient wird und die so erteilten Befehle mit einer haptisch wahrnehmbaren Rückmeldung quittiert. Damit erfolgt die Steuerung der Funktionen erstmals über eine vollständig immaterielle Bedienoberfläche, welche dennoch die von herkömmlichen Touchscreens vertraute, sowohl sicht- als auch spürbare Interaktion zwischen Fahrer und Fahrzeug ermöglicht. Das Bild einer vollfarbigen Anzeige wird – ähnlich wie beim Head-up-Display – durch geschicktes Spiegeln erzeugt, jedoch nicht auf der Windschutzscheibe, sondern frei schwebend im Innenraum dargestellt. Es zeigt frei konfigurierbare Schaltflächen und wird neben dem Lenkrad auf Höhe der Mittelkonsole für den Fahrer sichtbar sein. In diesem für den Fahrer komfortabel erreichbaren Bereich erfasst eine Kamera seine Handbewegungen. Sie registriert dabei insbesondere die Position der Fingerspitzen. Sobald diese eine der virtuellen Schaltflächen berühren, wird ein haptischer Impuls ausgesendet und die verknüpfte Funktion aktiviert.

Fazit
Der Touchscreen hat sich noch gar nicht ganz durchgesetzt, da wird er schon wieder langsam ausgemustert. Wenn es nach den Vordenkern in den Entwicklungsabteilungen geht, bedienen wir unsere Autos künftig vor allem mit Gesten oder am besten gar nicht mehr. Denn je kürzer die Zeit für die Bedienung eines Geräts ist, desto weniger ist der Fahrer von seiner eigentlichen Aufgabe – dem Fahren – abgelenkt. Ob sich diese neuen Bedienkonzepte in der Breite durchsetzen werden, wird uns erst die Zukunft zeigen.