Mit der Verbreitung digitaler Kameras, die am Kopf oder am Körper getragen werden, sind Systeme denkbar, die automatisch Handbewegungen oder Gesten erkennen. Dies könnte in vielen Bereichen nützlich sein, nicht nur in der Rehabilitation, sondern auch bei der bequemen Steuerung digitaler Anwendungen. An der TU Eindhoven hat Alejandro Betancourt mit genau einem solchen System cum laude promoviert. In den Bildern einer am Kopf oder Körper getragenen Kamera (etwa der Kamerabrille Google Glass, die aber nicht mehr auf dem Markt ist) sind oft auch die Hände des Trägers zu sehen. Es gibt zwar schon Techniken, die diese Hände erkennen, aber keine, die erkennen, was die Hände „sagen“.

Um dies möglich zu machen, mussten viele Hindernisse aus dem Weg geräumt werden, etwa die stark variierende Lichtintensität beim Umherlaufen oder die eindeutige Erkennung von rechter und linker Hand (was weniger einfach ist, als es auf den ersten Blick erscheinen mag). Schließlich ist die Rechenkapazität eines solchen Computers, wie er in einem Gerät wie der Google Glass steckt, ziemlich beschränkt. Um diese Probleme zu lösen, hat der Doktorand unter anderem eine selbstlernende Software (machine learning) entwickelt und eingesetzt. Die Dissertation hat den Titel „EgoHands, A Unified Framework for Hand-Based Methods in First Person Vision Videos“ und kann als PDF-Datei hier heruntergeladen werden.