Seit über 25 Jahren benutzen wir grafische Bedienungsoberflächen (Grafical User Interface, GUI) und alle Hersteller von PC Betriebssystemen wie Apple oder Microsoft müssen hier Rank Xerox danken, die dieses Konzept Ende der 70er erfunden haben, ohne jedoch das Potential dahinter erkannt oder es ausgenutzt zu haben.
Nun erleben wir einen weiteren fundamentalen Wechsel in der Art und Weise, wie sich die Interaktion zwischen Mensch und Maschine gestaltet. Anstatt mit Tastatur und Maus sind es natürlichsprachige Eingaben, Touch sowie manuelle Gesten und Mimik, mit denen wir mit den Geräten der Zukunft interagieren werden. Diese Art der Benutzerführung nennt man im englischen “NUI”, Natural User Interface.
Stevie B, ein Wissenschaftler aus den Microsoft Research Labs zeigt in einem 7min Video, wie die Weiterentwicklung der Gestensteuerung wie man sie bereits mit Kinect für XBox 360 kennt, aussehen könnte.