kinectsdk相关内容
嗨 我可以将Box2d或类似物理库与Kinect SDK集成吗?如果是,怎么做? 解决方案 查看Box2D文档,它与渲染或输入技术无关:它只管理一组具有质量,速度和约束的物体。因此,如果您使用Kinect SDK作为输入设备来控制其中一个变量 或物理模型的约束,那么它应该可以正常工作。我不熟悉Box2D的细节,所以我不能为你写一个样本,但是如果你经历单独学习Box2D和Kinec
..
我的kinect固件版本不正确吗?我的xbox的版本不是最新的13599,它是早期版本。 我的kinect的固件版本已被xbox降级?是什么原因? 解决方案 在Kinect SDK Beta下,Kinect LED始终以绿色闪烁是正常的。 当您尝试加载形状游戏和骨架查看器示例时,您会看到哪些错误?您是否尝试过直接从C:\ Users \ Public \Documents \
..
我想估计Kinect深度传感器捕获的物体的垂直/水平范围。 视角为43度垂直和57度水平(如编程指南中所述,第11页),适用于彩色摄像机和深度摄像机吗? 深度流像素在整个视野范围内的分布是否均匀? 计算320x240深度图像中90x76像素区域的大小,距离Kinect传感器1124 mm,我可以很好地估计水平分量(2-3内) mm),但我对垂直分量的估计偏差30 mm (太小)
..
大家好, 我使用Gamebryo引擎和kinect sdk来构建应用程序。问题是Gamebryo必须使用VS2008或VS2005,但Kinect sdk必须使用Microsoft Visual Studio 2010年。 我该如何解决这个矛盾? 解决方案 如果你正在使用托管代码,Kinect SDK实际上需要 .NET 4.0,我认为不可能使用Kinect SDK和 所需的
..
我正在尝试在一台PC上使用三个Kinect传感器。第一个和第二个是pass.But,第三个给出错误但不起作用。 源代码的顶部是以下。 ---- #define MAX_KINECT_NUM 8 int _tmain( int argc ,_TCHAR * argv []) { HRESULT ret; int kine
..
嗨, 我想知道是否有方法可以在成功初始化和跟踪骨架后检测Kinect设备是否仍然连接。 提前致谢。 / SXT 解决方案 对不起,Kinect SDK Beta不提供此功能,但这是我们将来考虑解决的常见请求。很抱歉,我暂时无法向您提供详细信息或日期。 感谢您的反馈。 Eddy
..
hi 有人知道如何使用kinect来模拟输入键吗? 我需要一些代码源。我看到了faast,但只是应用程序。 r 解决方案 SendKeys是.net要使用的库。它会将键盘事件放在队列中。 http://msdn.microsoft.com/en-us/library/system.windows.forms.sendkeys.aspx 如果您使用的是c ++,
..
嗨, 我注意到性能(就Kinect SDK处理帧以提取骨架需要多长时间而言)似乎取决于深度来自相机的人例如,如果我站得很近,如果我离得更远,算法比 要慢得多。我认为这是一个结果,因为分类算法必须处理更多的像素,并且用于聚类像素的算法将需要更长的时间,因为需要考虑更多的像素。有没有其他人注意到这种行为, 是否有任何解决方法,因为我发现当有人站在相机框架附近拍摄深度图像时,开始更有可能被丢弃
..
嘿那里, 我正在寻找一种简单的方法将骨架查看器示例代码传输到windows.forms项目。 主要问题是,我没有像"Canvas"这样的元素。或者在骨架查看器中使用的System.Windows.Controls.Image来显示图像。 所以知道我在坚持,我不知道如何进一步...... 实际上我编写了一个图像转换器,但我担心帧率和效率! 我知道这看
..
所以我在互联网上做了一些搜索,以便在检测到房间内的运动无效时让kinect开始录制视频。这似乎是一个非常简单的概念,我觉得我有编程经验来解决它。 我之前从未使用过Kinect SDK。 有没有人在网上看到动作触发的视频录制? 解决方案 不是真的,但我想你需要的是: 1-当检测到骨架时触发记录(如果通过动作你的意思是人类运动)。这很容易,只是在SkeletalViewer示例中
..
我可以在Kinect(Kinect传感器和Kinect SDK)中找到关节的位置。但我在XNA中有一个角色动画。我可以将它们集成到一个项目中。 现在我有一个问题,如何使用kinect的联合位置来更新角色动画? kinect的联合信息只有位置,但角色动画(骨骼)需要方向和位置? 有人知道如何从kinect的关节位置抓住骨骼的世界矩阵吗? akira32编程之家雅虎http://tw
..
嗨, 我试图找出如何在距离Kinect一定距离内检测骨架。我对SDK的理解是,自动骨架检测是我们无法访问的SDK原始代码的一部分,因此我们无法告诉kinect 只能在一定深度内查看骨架。我对吗? (虽然我真的需要这个功能)谢谢! Lining YAO 解决方案 正确,SDK会如果在支持的深度范围内有多个可见,则自动选择要跟踪的骨架。如果您只需要在一个范围内检测骨架,则可以检查属于S
..
我一直在使用特定关节的Vector3信息,但我很难找到一种方法来将我的x,y,z坐标(通常在-5到5的范围内)转换为坐标为在XNA的3D世界中使用。 是否有一些代码可以转换任何人都知道的坐标?任何帮助将不胜感激:) 大卫。 解决方案 这应该是一个相对简单的转型。 您知道3D XNA坐标系是右撇子,对吗?
..
我最近更新了MS SDK的最新测试补丁。 使用C ++ SkeletonViewer测试它。 我发现我遇到稳定性问题,我成功通过了NuiInitialize函数调用,但是我没有收到IR或RGB相机 数据。  但是,有时当我启动应用程序时它运行正常。 我没有发现这种行为模式的方式: 在32位机器上没有发生,我仅在64位Windows 7机器上看到它。
..
嘿伙计们,我想知道是否有人知道有关获取关节旋转信息的任何工作,例如将头部左右旋转90度? 我的假设是联合轮换目前不可行,但是我错过了一个我认为我会问的技巧:) 非常感谢 David。 解决方案 Kinect没有联合轮换信息不幸的是,SDK Beta 1,所以现在最好的办法是尝试推断骨架关节位置的旋转。 抱歉! Eddy
..
我无法将图像格式SDK(Microsoft)转换为IplImage(OpenCV)。 函数cvSetData中的此错误(rgb32,& hr,rgb32-> widthStep); 帮助我PLZ。 #include " cv.h" #include " cvaux.h" #include " highgui .h" #include " MSR
..
嗨 我怎样才能拥有骨架关节坐垫的真实世界坐标。我应该使用模型视图的反转和投影矩阵,还是有更简单的方法,比如函数来做:)? 解决方案 您好 我怎样才能拥有骨架关节坐垫的真实世界坐标。我应该使用模型视图和投影矩阵的逆,还是有更简单的方法,比如函数来做:)? 更清楚我想要变换骨架透视坐标到立方世界坐标。我相信它是透视投影的反转,所以我应该让我的模型视图和投影矩阵然后反转它们并乘
..
大家好! 解决方案 这听起来像个有趣的项目:) 我不喜欢没有看到让不同的玩家控制同一"化身"/模型/怪物中的不同肢体的概念的问题。对于kinect提供的每个骨骼,你有20个关节,组成5个不同的部分,如下所示: 骨干:髋关节中心,脊柱,肩部中心,头部为 左腿:臀部中心,左臀部,左膝,左脚踝,左脚 右腿:臀部中心,右臀部,右膝,右脚踝,右脚 左臂:肩中心,左肩,左肘,
..
大家好。 我正在开发一个使用 ssc-32控制 的项目; Servos。手臂是这样的: http://www.lynxmotion.com /c-126-al5b.aspx 我得到的程序大部分工作和来自电脑到ssc-32。但是,我的问题是如何编写一个可以让手臂自由移动的代码,就像我移动手臂一样。 例如:如果我挥手告别,我想让机器人手臂挥手
..
大家好, 我正在努力将使用OpenNi Kinect驱动程序构建的工具改编为SDK驱动程序。但是程序使用向量库,当我尝试编译我的代码时,Vector4的声明存在冲突(MSR_NuiApi.h也声明了Vector4)。 您是否有想法在没有调整向量或MSR_NuiApi文件的情况下解决它? 感谢您的帮助, Hugo Hache 解决方案 因此,Vector4的一个声明(A)
..