
Gaan we Google Glass via geprojecteerde toetsen besturen?
Een patentaanvraag van Google hint naar projectie-toetsenborden op de handen en armen van de gebruiker.
Wat we straks door de brillenglazen van Google's Project Glass gaan zien, is sinds het begin al aardig duidelijk. En dat het filmen en streamen met de bril indrukwekkend genoeg is voor een parachutesprong hebben we ook al gezien. Maar hoe verdere interactie tussen gebruiker en bril straks gaat plaatsvinden, laat Google nog altijd een beetje achterwegen.
In het bekende concept-filmpje lijkt de bril in ieder geval erg bijdehand, op dezelfde manier als Google Now. Dat bestuur je grotendeels met je stem, handig maar niet altijd ideaal. Ook weten we ondertussen dat scrollen gebeurt door met het vinger een scrollende beweging te maken aan de zijkant van de bril; daar zit een soort trackpad. Voor ingewikkelder handelingen leek tot nu toe een koppeling met een smartphone een voor de hand liggende mogelijkheid.
Een patentaanvraag van Google lijkt daar verandering in te brengen. Als Google inderdaad van plan is wat ze willen laten vastleggen, besturen we Project Glass straks via geprojecteerde toetsenborden. Het patent behandelt een laser-projector die in de bril zit en toetsen op de armen en handen van de gebruiker projecteert. Die toetsen kan de gebruiker zelf ouderwets aanraken maar het bewegen van de armen en handen draait het principe om.
Wil je een toets selecteren, draai je als het ware je arm of hand onder te toetsen door. Een boeiend idee dat ik persoonlijk graag in actie zou zien. Gelukkig heeft iemand het in oktober 2011 al eens uitgeprobeerd. In die hoogtijdagen van Kinect-hacks maakte onderzoeker Chris Harrison een interface die onder andere op de handen en armen van de gebruiker werd geprojecteerd. Maar zijn concept ging verder: het maakte levenloze objecten als stukken papier plots interactief. En dat doet weer denken aan een heel ander, minstens zo boeiend Google concept.




