【发布时间】:2014-03-13 17:21:35
【问题描述】:
在解释问题之前,让我先解释一下我的需求。 我期待着一个手动控制的应用程序。 使用手掌导航,使用抓握/拳头点击。
目前,我正在与 Openni 合作,这听起来很有希望,并且在我的案例中很少有示例证明是有用的,因为它在示例中内置了手部跟踪器。这暂时符合我的目的。
我想问的是,
1) 拥有拳头/抓斗检测器的最佳方法是什么?
我在提取的 RGB 数据上训练并使用了 Adaboost 拳头分类器,效果很好,但是它的错误检测太多,无法继续前进。
所以,我在这里再提出两个问题
2) 有没有其他好的库可以使用深度数据来满足我的需求?
3)我们能否训练自己的手势,尤其是使用手指,就像一些论文提到的 HMM 一样,如果可以,我们如何使用 OpenNI 之类的库?
是的,我尝试过使用 OpenNI 中的中间件库,例如抓取检测器,但是它们不能满足我的目的,因为它既不开源也不符合我的需要。
除了我问的以外,如果有什么你认为对我有帮助的东西,将被视为一个好的建议。
【问题讨论】:
-
您使用什么操作系统来解决这个问题?您是否有机会运行 Mac,或者您使用的是 Windows?
标签: opencv image-processing computer-vision kinect openni