kinect相关内容
我目前正在进行一个项目,在该项目中我需要使用PyKinect库访问和处理深度数据。 我想要做的是定义一个深度阈值,我将在其中进行一些图像分割,但由于我不熟悉PyKinect,而且我仍然不太清楚在哪里查找资源,我不知道如何访问这些数据并获得值。 我也尝试使用freenect库,但无法使其正常工作。 有人能告诉我如何做到这一点吗?或者将我重定向到某种文档? 推荐答案 我刚
..
我希望能够跟踪进出场所的人员.基本上,当用户接近 Kinect 时,它会存储他/她的面部和骨骼数据.然后在离开时,该数据将被删除.现在我只是想知道这是否可能与 Microsoft SDK 一起使用.我看过 Kinect 能够跟踪人员的视频/演示,但我的目标是唯一地识别他们.任何信息将不胜感激. 解决方案 是的,您可以保存骨骼和面部数据....但是对于您正在做的事情,听起来您只想为会话保存这
..
Microsoft 声明 Kinect 的视场角为垂直 43 度和水平 57 度(在 此处声明) .鉴于这些,我们可以计算内在参数,即焦点和投影中心吗?我假设投影中心可以给定为 (0,0,0)? 谢谢 编辑:关于我正在尝试做什么的更多信息 我有一个用 Kinect 记录的图像数据集,我正在尝试将像素位置(x_screen、y_screen 和 z_world(以毫米为单位))转换
..
我如何识别 kinect 跟踪的第一个骨架,然后对其进行处理.我只对第一个骨架感兴趣,以后我不需要它们.最好根本不跟踪进入的下一个骨架. 谁能帮我这个谢谢.目前我使用的下面的代码不起作用.我尝试了一些快速的 linq 查询,但我不太确定如何使用它.总是有错误. 谁能给我一些我可以使用的例子提前谢谢! private void SensorSkeletonFrameReady(obje
..
如果从不同角度收集各种图像和深度数据,是否有可能构建静止物体的 3d 模型,我的想法是有一种圆形传送带,其中放置 kinect 和传送带带,而要在 3D 空间中重建的真实对象位于中间.传送带随后围绕图像绕一圈旋转并捕获大量图像(每秒可能 10 个图像),这将允许 kinect 从包括深度数据在内的各个角度捕获图像,理论上这是可能的.该模型还必须使用纹理重新创建. 我想知道是否有任何类似的项目
..
在解释问题之前,让我先解释一下我的需求.我期待着一个手动控制的应用程序.使用手掌导航,使用抓握/拳头点击. 目前,我正在与 Openni 合作,这听起来很有希望,并且在我的案例中很少有示例被证明是有用的,因为它在示例中内置了手部跟踪器.这暂时符合我的目的. 我想问的是, 1) 拥有拳头/抓斗检测器的最佳方法是什么? 我在提取的 RGB 数据上训练并使用了 Adaboost
..
我是新加坡南洋理工大学 (NTU) 的学生.并且目前正在使用 Kinect SDK 开发一个项目. 我的问题是,任何人都知道如何开发一个程序来使用 Kinect SDK 检测手指(或指尖),甚至可能是一些可能的参考代码.无论如何,我也尝试在google上搜索,但我得到的唯一参考是使用Open NI,而不是Kinect SDK. 感谢和问候 解决方案 我自己也在研究,虽然没有深入
..
我最近将一台 PC 更新到了 Windows 8.1,以使其与 Kinect v2 兼容.这是具有以下规格的 ASUS N53S: CPU:英特尔酷睿 i7 - 2670QM (2.2GHz) 内存:16 GB GPU:GEForce GT 550M USB3 控制器:Fresco Logic xHCI 当运行 Kinect v2 Configuration Verifier 时
..
我在 wpf 应用程序中工作,我在 XAML 中创建了一个复选框,然后我的代码调用类中的一个函数,在这个函数中有一个 if 条件,它检查复选框是否被选中,但复选框被选中在这个类中没有看到,那么如何做到这一点? 非常感谢 编辑: 这是我做的步骤:我在 KinectSkeleton 的同一个项目下创建了 ViewModel 类,如图:视图模型类: 公共类ViewModel{publ
..
我正在开发一个项目,该项目使用 Kinect 和 OpenCV 将 fintertip 坐标导出到 Flash,以便在游戏和其他程序中使用.目前,我们的设置基于颜色并以 (x, y, z) 格式将指尖点导出到 Flash,其中 x 和 y 以像素为单位,z 以毫米为单位. 但是,我们希望使用 Flash 中的 z 深度值将这些 (x, y) 坐标映射到“真实世界"值,例如毫米. 据我所
..
我们使用带有 OpenNI 库的 Kinect 捕获了 3d 图像,并使用此代码以 OpenCV Mat 的形式获取了 rgb 和深度图像. main(){OpenNI::initialize();puts("Kinect 初始化...");设备设备;if ( device.open( openni::ANY_DEVICE ) != 0 ){puts("Kinect 未找到!");返回-1;}
..
我正在使用红外视图和深度视图进行 Kinect 项目.在红外视图中,使用 CVBlob 库,我能够提取一些二维兴趣点.我想找到这些二维点的深度.所以我想我可以直接使用深度视图,像这样: coordinates3D[0] =坐标2D[0];坐标3D[1] = 坐标2D[1];坐标3D[2] = (USHORT*)(LockedRect.pBits)[(int)coordinates2D[1] *
..
我是 kinect 开发的新手,也是 stackoverflow 的新手!这是我的情况: 有了深度相机,我可以轻松获取深度数据.我想要做的是一旦我检测到一个人(玩家)存在于相机前,我只会提取玩家的深度像素,并将其放在透明背景上,以便输出是透明背景上仅播放器深度图像的静态图像. 我想问是否可以完成这项工作?我做了一些研究,发现一些函数可能有助于做到这一点,例如 SkeletonToDep
..
我想在我的深度图上找到大约对象.现在我的流程如下:1. 深度归一化2. 只获取最近对象的阈值3. 高斯模糊4. Canny 边缘检测5. 轮廓检测 但是,我找不到对象周围的框.其实我不知道这种深度图能不能实现... 我桌上有三个东西:一盒食物和两个杯子. 我想在我的对象周围找到大约一个框. 有没有办法只通过图像处理来做到这一点?任何帮助将不胜感激. 非常感谢您.
..
我试图在Microsoft的Git上运行Windows上的Azure Kinect身体跟踪示例的C ++代码.我的系统上安装了最新的NVIDIA驱动程序.尝试在Visual Studio中构建项目时,针对Microsoft.Azure.Kinect.BodyTracking.Dependencies.cuDNN的NuGet还原对我失败,并显示一条消息“找不到路径build/native/Micro
..
我正在尝试使用kinect v2控制3D模型.我正在使用Unity3D.我安装了要求.我画了一个尖兵.就像这张照片: [但是当我尝试3D角色时,角色看起来像这样: [ 这是我的代码: void FixedUpdate () { //GameObject tanımlanmış mı kontrolü yapılır. if (BodySourceMana
..
基本上,我想在设备的视点上采取一条固定的直线,并确定是否有任何物体拦截到该直线,但是在我的示例中,我想使“激光线"相对于距视场顶部的距离可配置视图. 现在,只需执行此操作即可轻松获得给定像素点的深度数据. var depthInMM = DepthImagePixel.Depth; 并且也很容易简单地说,我想通过做这样的事情来关注从顶部开始的第100行像素. for (int
..
我正在尝试将视频捕获的帧/窗口大小减小到320x180,但是我似乎做不到.我正在使用Windows Kinect for Xbox One,并使用适配器将其连接到我的PC. 我尝试将cv2.CAP_PROP_FRAME_WIDTH设置为320,将cv2.CAP_PROP_FRAME_HEIGHT设置为180,但是一旦获得值,它就会返回1920和1080.我还尝试安装并重新安装Kinect S
..
我正在尝试从ROS中的一个Kinect节点对点云进行一些分割.到目前为止,我有这个: import rospy import pcl from sensor_msgs.msg import PointCloud2 import sensor_msgs.point_cloud2 as pc2 def on_new_point_cloud(data): pc = pc2.read_poi
..
我正在尝试使用Kinect for Xbox 360开发一个有趣的人脸识别应用程序.我想弄清楚应该使用哪种SDK和版本的Visual Studio来最好地访问Kinect. 解决方案 Kinect SDK 2是否与Xbox 360 Kinect兼容? 否,Kinect SDK 2.0与任何Kinect v1传感器都不兼容.来自 DreamSpark.com : Kinect
..