Automotive HMI Trends – der  Markt ist in Bewegung

Gerade erst lief es durch die Ticker der Nachrichtenredaktionen: Continental, einer der weltgrößten Zulieferer in der Automobilbranche, kauft für 600 Millionen Euro den finnischen Automotive-IT-Spezialisten Elektrobit. EB ist insbesondere im Bereich HMI stark, so dass dieser Schritt ein deutliches Signal für die Wichtigkeit des Themas Human-Machine-Interface darstellt. Da passt es ganz gut, die Zukunft des HMI im Auto ein wenig zu beleuchten.

Die beiden übergeordneten Themen, die OEMs wie Zulieferer gleichermaßen umtreiben, sind ohne Zweifel Mobilität und Konnektivität. Mobilität bezieht sich dabei nicht nur auf das Fahren des Fahrzeuges an sich. Wir müssen vielmehr auch neue Formen der Nutzung von Kraftfahrzeugen in Betracht ziehen, um ganz grundsätzlich die Ausrichtung von HMI-Systemen schon jetzt in die richtige Richtung zu leiten. Die Mobilität der Zukunft wird sich aller Voraussicht nach im Spannungsfeld von Shared Mobility und Autonomem Fahren bewegen. Schon heute fahren in den USA einige Dutzend autonom fahrender Fahrzeuge auf den Straßen, wobei sich Google als Impulsgeber und Treiber besonders hervortut. Neben Googles eigenem Fahrzeugentwurf sind dies vor allem Toyota Prius, Lexus RX450h und Audi TT.

Marktbeobachter und Spezialisten gehen davon aus, dass eine kommerzielle Umsetzung der Feldforschung in etwa 8-10 Jahren möglich sein könnte. So rechnet Jaguar/Land Rover mit eigenen autonom fahrenden Fahrzeugen bis 2024, während Audi sich sogar schon 2023 soweit sieht. Immerhin hat man ja kürzlich sogar den Bundesverkehrsminister Alexander Dobrindt in einem semiautonomen Audi A7 namens Jack auf einem Teilabschnitt der A9, der als zukünftige Teststrecke für autonome Fahrzeuge dienen soll, auf die Straße geschickt, oder hat Journalisten aus dem Silicon Valley zur CES in Las Vegas chauffiert – immerhin eine Strecke von 900 Kilometer, die Audi in nur zwei Etappen bewältigen konnte.

Die Technologie für das autonome Fahren an sich ist also schon weit, und angesichts der Entwicklungszyklen in der Automobilbranche ist genau jetzt der Zeitpunkt, die Bedienschnittstellen und Infotainmentsysteme der nahen Zukunft an diese neuen Gegebenheiten anzupassen. Die Befreiung von der kognitiven Last, das Verkehrsgeschehen allzeit beachten zu müssen, erlaubt dem „Passagier“ im eigenen Fahrzeug ganz neue Wege der Interaktion mit dem Fahrzeug. Robert Zetsche, CEO von Daimler, sieht eine Verlagerung der Prioritäten, wenn es um die Bedeutung des Autos in der Zukunft geht. Vom Statussymbol an sich werde sich die Wahrnehmung des Autos hin zum privaten Raum, der seinen Insassen die Zeit bietet, sich um berufliche oder private Dinge zu kümmern, entwickeln. Die wichtigsten Luxusgüter sind ja schon heute Privatheit und „Quality Time“, sozusagen – und dies wird sich in einer immer schneller drehenden Welt noch verstärkt so darstellen. Multimodale Steuerungsmöglichkeiten und Assistenzfunktionen im Fahrzeug erhöhen den Wert dieser Luxusgüter ungemein, eine intelligente und natürlichsprachlich interagierende Nutzerschnittstelle gilt als gesetzt.

Shared Mobility wiederum erhöht die Anforderungen an die Konnektivität solcher Schnittstellen enorm. Schon heute nutzen tausende unterschiedlicher FahrerInnen das Angebot von DriveNow, car2go, Flinkster, multicity und so weiter. Das macht mehr als Sinn, denn das privat genutzte Fahrzeug steht laut einer Studie von Morgan Stanley 23 Stunden am Tag still. Die Ressource und das Investment in das eigene Fahrzeug stellen sich also als recht ineffizient dar, und die Nutzung eines Fahrzeugs durch mehrere Menschen hat das Potenzial, diese Diskrepanz zu beseitigen – vom finanziellen Anschaffungswiderstand ganz zu schweigen. Shared Mobility bringt aber auch mit sich, dass ein Fahrer viele verschiedene Fahrzeuge und viele Fahrer ein und dasselbe Fahrzeug nutzen. Möchte man die im eigenen Fahrzeug liebgewonnene Freiheit der Kommunikation auch beim Car Sharing nicht missen, sind Sicherheits- und Personalisierungskonzepte bei der Bedienung und somit der Entwicklung neuer Nutzerschnittstellen unabdingbar. Standards spielen dabei eine wichtige Rolle, aber auch flexible Plattformen wie SemVox ODP S3, die als Aggregator für alle möglichen Funktionen und Modalitäten dienen können und dabei die Mächtigkeit besitzen, alle denkbaren Assistenz- und Steuerungsfunktionen zu realisieren.

Kontextualisierung ist ein weiteres Schlüsselwort: Wer sieht welche Inhalte zu welchem Zeitpunkt und warum? Echtes, durch Methoden der Künstlichen Intelligenz erreichtes Sprachverstehen und semantisches Routen muss dabei zu „Big Knowledge“ in Abgrenzung zu Big Data führen. Für die Suche nach Informationen in einem intelligenten Handbuch müssen natürlich unstrukturierte Daten durchsuchbar gemacht werden, doch erst die Verarbeitung der Informationen zum Filtern und Erkennen von Vorlieben, zum Beispiel um personalisierte Suchsettings auf genereller oder situationsspezifischer Ebene zu erstellen, macht ein Assistenzsystem intelligent.

Das Auto fährt definitiv in Richtung Cloud, sei es mit integrierter SIM-Karte oder über die Anbindung des Smartphones. Hybride Systeme werden weiter an Bedeutung gewinnen, weil die „Kinderkrankheiten“, wie zum Beispiel die Latenzzeiten von cloudbasierten Spracherkennern und NLU-Systemen, immer weniger werden, andererseits weil die für die Personalisierung und Generalisierung notwendige Robustheit und Leistungsfähigkeit der Erkenner zur Zeit nur von cloudbasierten Erkennern gewährleistet werden kann. Die richtige Balance zwischen und der situationsgerechte Einsatz von Embedded und Cloud ist dabei von Wichtigkeit: In der Head Unit des Fahrzeugs findet zum Beispiel die Rausch- und Nebengeräuschunterdrückung statt, und für gewisse Domänen gibt es einen robusten und unabhängig von der Internetverbindung immer verfügbaren Spracherkenner. Selbstverständlich findet auch die Sprachsynthese lokal, also embedded statt, um nicht von einer Anbindung an die Cloud abhängig zu sein. Was aber passiert nun in der Cloud? Nun, jegliche Form von Interaktion mit webbasierten Apps, zum Beispiel. Facebook, Streamingdienste, Chats und so weiter bedürfen eines Internetzugangs – und zur Ausführung bestimmter Befehle (zum Beispiel Ticketbestellungen oder Tischreservierungen) ist es ebenfalls nötig, mit dem Internet verbunden zu sein. Auch können cloudbasierte Sprachmodelle einfacher und schneller upgedatet werden und bieten zusätzliche Features, die eingebettete Systeme (noch) nicht liefern können, zum Beispiel Diktierfunktionen.

Die Menge an Daten, die in der Cloud verarbeitet und ausgewertet werden kann (zum Beispiel Fehler- und Trendanalysen) und die Updatefähigkeit cloudbasierter Dienste, hilft im Zusammenspiel mit den lokalen Komponenten dabei, die User Experience bei der Bedienung intelligenter und komplexer Funktionen maßgeblich zu steigern.

TRENDS IM AUTOMOTIVE HMI ZUSAMMENGEFASST:

  • Sprachsteuerungs- und Dialogsysteme mit echter Multimodalität, die den Anforderungen der neuen Mobilität und Konnektivität gewachsen sind, und zwar durch…
  • Personalisierung und Kontextualisierung von Assistenzsystemen mit Mitteln der Künstlichen Intelligenz und…
  • hybride, bedarfsangepasste Verarbeitung von Sprache.