Как обнаружить жесты в OpenKinect (с оболочками python)

Я начал изучать разработку OpenKinect, и для начала я пытаюсь понять, как искать определенные жесты, сделанные человеком.

Есть ли какие-нибудь учебники о том, как это сделать? Или что было бы хорошим местом для начала?

Я просто пытаюсь делать такие вещи, как знать, когда человек поворачивает свою руку в одном направлении или, например, в другом. Хотя, конечно же, я бы очень признателен за любую помощь!

ОБНОВЛЕНИЕ. Из того, что я могу сказать, я скорее всего использую рамки OpenNI / NITE, в дополнение к оболочкам ONIPY Python. Поэтому, если нет лучшей структуры, мне просто нужно выяснить, как сделать свои собственные жесты сейчас.

    One Solution collect form web for “Как обнаружить жесты в OpenKinect (с оболочками python)”

    Я не уверен, что это будет именно то, что вы хотите, но мой брат использовал библиотеку OpenNI / NITE, чтобы распознать некоторые жесты на Kinect с помощью Ruby. Я увидел демо, что мой брат сделал, где компьютер узнал, что он дает компьютеру волну.

    Есть привязки Python для этой библиотеки с проектом onipy , но я лично его не использовал. Я подозреваю, что все-таки может понадобиться какая-то работа, но я обязательно посмотрю на нее. Вероятно, вы захотите также прочитать некоторую документацию на веб-сайте OpenNI .

    Python - лучший язык программирования в мире.