Entwicklungen, Trends und Zukunft des Interface-Designs: Design-Trend Einfachheit
Die ersten Natural-User-Interfaces waren wahrscheinlich Steinkeile im Steinzeitalter. Sie waren auf das Wesentliche reduziert, hatten weder Zierrat noch überflüssiges Gewicht und ließen sich unmittelbar und intuitiv einsetzen. Damals wie auch heute galt das Gesetz guter Usability: Je gebrauchstauglicher das Werkzeug, desto erfolgreicher der Mensch – und je unmittelbarer die Bedienung von Objekten (egal ob analog oder digital), desto besser.
Der Wandel von grafischen zu natürlichen Benutzungsoberflächen, von Graphical- zu Natural-User-Interfaces, führt genau in die gleiche Richtung wie das eben beschriebene Beispiel aus der Steinzeit: Nach dem IBM-Zeitalter mit seinen raumfüllenden Expertenmaschinen, wurden Desktop-Computer zu Objekten des alltäglichen (Büro-)Lebens, die die Menschen in ihrer alltäglichen Arbeit leistungsfähiger machten – auch wenn man sich dafür zum Operator ausbilden lassen musste, um die wenig intuitiven, da abstrakten und damit fehleranfälligen Command-Line-Interfaces bedienen zu können.
Dann erschienen in den frühen 1980er Jahren Interfaces, die sich mittels grafischer Metaphern bedienen ließen [1]. Erstmals tauchte die Metapher eines Desktops als Interaktionsfläche mit einem Computer auf. Als die Xerox-Vorstände das als zu rigide für einen „wegweisenden Umgang“ mit einem Computer abtaten [2], holte ein gewisser Steve Jobs einige Xerox-Entwickler zu Apple und begann den Siegeszug der grafischen UIs. Diese Entwicklung zieht sich bis zum heutigen Tag durch: Denn auch die Beliebtheit heutiger Smartphones und Tablets mit ihren NUIs beruht zu einem wesentlichen Teil auf einer besseren Bedienbarkeit: Sie lassen sich in der Regel intuitiv und ohne Einführung oder gar Schulung anwenden.
Natürlich einfach – einfach natürlich
Die im Vergleich zu einem Graphical-UI signifikant bessere Usability einer Natural-UI rührt daher, dass Nutzer hier nicht mehr mit einer Metapher – etwa einem Symbol oder Icon – interagieren, sondern mit dem Objekt selbst. Machbar wird das durch die erweiterten sensorischen
Interaktionsmöglichkeiten – wie Touch, Geste, Sprache und vieles mehr. So kann man zum
Beispiel einen Text direkt mit dem Finger verschieben und muss sich nicht umständlich mit einer
Maus, einem Cursor oder mit Hilfe von Scrollbars durch das Dokument navigieren. Ein Natural-Interface ist somit
unmittelbarer und direkter – folglich natürlicher.
Das kommt vor allem
jüngeren und älteren Menschen entgegen. Sie finden sich wesentlich
besser mit Smartphones und Tablets zurecht als mit Maus und Cursor. Doch das gilt nicht nur für sie. Natural-User-Interfaces sind vielmehr generell wesentlich effizienter, effektiver und zufriedenstellender: Im Durchschnitt erreicht ein Nutzer sein Ziel mit einem NUI acht mal schneller als mit einem GUI. Das bedeutet eine enorme Produktivitätssteigerung: Denn was sich mit einem Graphical-UI innerhalb von acht Stunden erledigen lässt, lässt sich mit einem Natural-UI in einer Stunde bewerkstelligen.
Natürlich ließe sich auch eine grafische Benutzungsoberfläche mittels
Touchscreen direkt bedienen – doch das wäre, als würde man einen Motor
in eine Kutsche einbauen: Echte NUIs haben eine andere Grundstruktur,
eine andere Formsprache und ein anderes Verhalten als grafische Interfaces. Dies
ermöglicht eine bessere Usability (Ease of Use) und mehr Spaß bei der
Anwendung (Joy of Use) – die primären Gründe, warum sich natürliche gegenüber grafischen Nutzeroberflächen durchsetzen werden.
Von der Optik zum Verhalten: Joy of Use im Mittelpunkt
Denn sicher: Die Metaphern der GUIs haben schon sehr viel mehr
Arbeitsvergnügen gebracht als ihre Vorläufer, die textzeilen-basierten
Command-Line-Interfaces. Doch der Joy of Use echter NUIs rührt nicht so sehr von
ihrer Optik, sondern vielmehr von ihrem Verhalten. Lag der
Gestaltungsfokus bei GUIs überwiegend im Design der Grafik, so
verschiebt sich der Gestaltungsschwerpunkt bei NUIs in Richtung des
Designs visueller Verhalten. Dies heißt nicht, dass Designer in Zukunft
keine grafischen Elemente mehr kreieren. Diese sind nur eben für den
Erfolg eines Interfaces oder Interaktionssystems nicht mehr so
entscheidend, wie das bei GUIs der Fall war.
Doch wann lässt sich ein Interface natürlich benutzen? Und wie kann ein Designer oder Entwickler eine Hard- oder Software entsprechend gestalten? Auskunft dazu geben Menschen – und nicht die Technologien. Aus der Kognitionsforschung ist bekannt: Je weniger kognitive Energie zur Erreichung eines Ziels nötig ist (je weniger man also darüber nachdenken muss), desto intuitiver ist es. Das ist der Fall, wenn man auf vorhandenes Wissen zurückgreifen kann – etwa wenn der Nutzer natürliche Handlungsmodelle anwenden kann, die wesentlich tiefgreifender in uns verankert sind als Metaphern.
Das OSIT-Modell
Eines, wenn nicht sogar das intuitivste Handlungsmodell des Menschen ist das sogenannte OSIT-Modell [3] : Orientieren, Selektieren, Informieren, Transagieren (also die Handlung). Es beschreibt damit die Denk- und Handlungsmodelle, die jeder Mensch täglich über 100.000 Mal unbewusst anwendet. Verhält sich also eine Plattform, Website, App oder Multitouch-Anwendung OSIT-konform, lässt sie sich wesentlich intuitiver handhaben. Das folgende Beispiel des Modern-User-Interfaces von Windows 8 veranschaulicht, was das in der Praxis bedeutet: Die Startseite liefert Orientierung – nämlich in Form einer Übersicht über alle vorhandenen Apps. Wählt der Nutzer eine App aus (Selektieren), bekommt er Detailinformationen – etwa zu einem selektierten Musikalbum. Je mehr Sinne hierbei angesprochen sind, desto leichter ist es, sich zu informieren. Ein Grund, warum Online-Videos einen solchen Vorteil gegenüber einfachen Texten haben. Nun kann man transagieren, also mit dem ausgewählten Objekt eine Handlung durchführen. In diesem Beispiel etwa ein Musikstück anhören, sharen oder empfehlen.
Von der App zum Assistenten
Je mehr das Nutzerverhalten in den Mittelpunkt von Interface-Design rückt, desto stärker verändert sich auch der grundlegende Charakter von Software in Richtung eines kontextsensitiven Dienstes. Erhielt man Software früher auf „Hardware“ (Diskette oder CD-ROM), wird sie heute immer öfter aus der Cloud zur Verfügung gestellt. Die nächsten Software-Generationen werden noch granularer und konsequenter ein Dienst sein. Diese Dienste stecken dann als „Inner Service“ in den Medien. Sie sind keine installierte Software auf dem Rechner mehr. Ein Foto beinhaltet dann neben einem integrierten E-Mail-Programm oder einer Schnittstelle zum E-Mail-Client des jeweiligen Betriebssystems zum Versenden, Teilen oder Kommentieren auch Bearbeitungs- oder Rechteverwaltungsoptionen. Das Objekt selbst – also das Foto – enthält damit innere Dienste, mit denen es der Nutzer – je nach Berechtigung – direkt bearbeiten oder versenden kann. Abgerechnet wird nicht mehr pro Programm, sondern pro genutztem Dienst.
Interface-Design heute: Komplexität meistern
Auch die neuen Gerätegenerationen vereinfachen die Nutzung signifikant – gleichzeitig ist die Interface-Entwicklung aber auch wesentlich komplexer. Musste man bislang Interaktionen nur für Cursor, Click und Mouse-Over gestalten, so muss man beim Design von Natural-User-Interfaces multidimensional denken: Multitouch, Multi-User, Multimodalität (also die Möglichkeit, auf verschiedene Art und Weise vorgehen zu können), Multi-Gesten, Multi-Betriebssystem, Multi-Gerät, intermedial oder direkt konnektiert [4] – das sind nur einige Begriffe, welche die Herausforderungen bezeichnen. Grund für die steigende Komplexität in der Interface-Entwicklung sind die Vielzahl von Sensoren in den neuen Gerätegenerationen, mit denen sie Umweltinformationen erfassen können. Dadurch reagieren Geräte wie Smartphones und Tablets wesentlich kontext-sensitiver und intensivieren die User-Experience des Nutzers.
Für den Nutzungserfolg ist das perfekte Zusammenspiel von Software und Hardware von entscheidender Bedeutung. Nur wenn wie beim Menschen auch Körper und Geist beziehungsweise Hardware und Software perfekt zusammenspielen, lässt sich diese innovative Art an Nutzungserlebnissen entfalten. Deshalb verwundert es auch kaum, dass im Grunde sämtliche großen Software-Anbieter wie Microsoft, Google oder Amazon auf einmal auch Hardware herausbringen. Diese Unternehmen wollen die User-Experience selbst unter Kontrolle haben, um Nutzer und Kunden nicht zu verlieren – denn um sie geht es schließlich. Deshalb ist es auch so wichtig, Interfaces stets an ihre Erfordernisse und Nutzungssituationen anzupassen.
Herausforderung Responsiveness
Gute User-Interfaces passen sich immer dem Nutzer an. Die vertikale oder horizontale Ausrichtung eines Tablets oder Smartphones ist ein gutes Beispiel für die Responsiveness oder auch Reaktionsfähigkeit eines Interfaces. Die Bewegungssensoren richten das Interface anders aus, wenn der User das Gerät über einen bestimmten Winkel hinaus kippt.
Ein Beispiel: Die iOS-App „Music“ zeigt in der vertikalen Ausrichtung eine Listendarstellung, in der horizontalen eine Coverflow-Ansicht. Außerdem passen sich responsive Interfaces an unterschiedliche Bildschirmgrößen oder -auflösungen an, ohne dabei ihr Aussehen oder Verhalten gravierend zu verändern. Die bereits erwähnte Modern UI von Windows 8 ist dafür ein Beispiel. Ihr Aussehen und Verhalten ist auf Smartphone, Tablet, Laptop, Spielekonsole oder Smart TV gleich und kongruent.
Multi-User-Konzepte
Die meisten Anwendungen sind heute – außer vielleicht bei Spielen – auf Single- und nicht Multi-User-Konzepte ausgerichtet. Doch Multi-User-Interfaces nehmen zu – und damit die Herausforderung für Gestalter und Entwickler, neu zu denken: Denn wenn mehrere Nutzer gleichzeitig ein kollektiv homogenes Nutzungserlebnis erfahren sollen, und sich ein gutes Interface immer zu einem Nutzer hin ausrichten soll – dann stößt klassisches Software-Denken schnell an seine Grenzen.
Multi-User-Interfaces erfordern neue Gestaltungsansätze, denn sie sind in der Regel sehr viel komplexer und anpassungsfähiger als Single-User-Anwendungen. Außerdem müssen sie nahtlos zusammenspielen, um die Multi-User-Experience nicht zu zerstören.
10 Wesensmerkmale von Natural-User-Interfaces |
Die folgenden Richtlinien sind bei der Entwicklung guter NUIs hilfreich:
|
Vom Brett zur Brille
Der nächste große Paradigmenwechsel in der Entwicklung des Computers
ist – nach dem Smartphone und Tablet – die smarte Computerbrille,
so genannte web-enabled Glasses. Je unauffälliger, leistungsfähiger und
befähigender ein Medium für uns Menschen ist, desto höher ist unsere
Akzeptanz. Und da wir nun mal ungern große und schwere Dinge mit uns
herumschleppen, wie Bücher oder Laptops, ist die logische Konsequenz der
Schrumpftechnologie ein Gerät, das die meisten von uns bereits ohnehin
in Form einer Lese- oder Sonnenbrille besitzen und für uns natürlicher
ist ein Tragegerät á la Smartphone oder Tablet PC. Dass solche Produkte
erfolgreich sein werden, zeigen auditive Geräte, die bereits viele
Menschen verwenden: Walkmen oder iPods – heute meist Smartphones – tun nichts anderes, als
die virtuelle mit der realen Welt zu kombinieren. Je nach Lautstärke
überlagert die Musik komplett (volle Lautstärke) oder nur teilweise
(mittlere bis leise Lautstärke) die Geräusche der Umwelt.
Doch bis wir richtige Computer-Brillen haben, wird noch einige Zeit
vergehen – auch wenn Google den Prototypen seiner Project Glass
bereits 2012 vorstellte und voraussichtlich 2014 auf den Markt bringt.
Apple, Samsung, Facebook und andere Anbieter haben
Augmented-Reality(AR)-Brillen längst in ihrer Langzeitstrategie
berücksichtigt, wie man an den Patent-Anmeldungen erkennen kann. Die
echten Computerbrillen, von denen hier die Rede ist, enthalten aber
wesentlich mehr Sensorik, als heutige Geräte wie Kinect- oder
Leap-Motion. Sie sind nicht auf das Smartphone als
Kommunikationsgerät angewiesen und erlauben
– ähnlich wie die oben genannten Musikplayer – stufenlos multiple
Zustände: Von einer virtuellen über eine augmentierte bis hin zu einer
realen Informationsdarbietung.
Auch wenn solche Brillen heute schon für militärische Zwecke zum Einsatz kommen – bei einem Preis von mindestens 150.000 US-Dollar sind sie für die meisten von uns wohl noch unerschwinglich. Das spannende an der Erweiterung unserer Wahrnehmungsebenen durch die Computer-Brillen wird aber die Gestaltung und Entwicklung neuer Interfaces und Interface-Dienste sein. Dabei werden die aus dem Natural-User-Interface-Design bekannten Grundprinzipien eine noch bedeutendere Rolle für den Nutzungserfolg spielen: Es wird noch mehr um Verhalten und nicht um Aussehen gehen. Auch kontext-sensitive Dienste werden künftig immer wichtiger. Und nicht zuletzt wird die Gestaltung multimodaler, responsiver Interfaces User-Interface-Designer vor noch größere Herausforderungen stellen.
Fazit
Hollywood wird damit immer realer. Indem wir unseren Wahrnehmungsbereich immer mehr mit zusätzlichen, virtuellen Informationen überlagern können, betreten wir eine vollkommen neue Ära der Kommunikation sowie der Art und Weise, wie wir unsere Umwelt wahrnehmen. Realität und Virtualität verschmelzen in einer intermedialen Welt des „Internets der Dinge“. Sie eröffnen uns Möglichkeiten, von denen Albert Einstein einst sagte: „Imagination is more important than knowledge“.