motion-detection相关内容
我有一个固定的相机,指向室内区域.人们会在距离它约 5 米的范围内经过摄像头.使用 OpenCV,我想检测走过的人 - 我的理想返回是检测到的个人数组,带有边界矩形. 我查看了几个内置示例: 没有一个 Python 示例真正适用 C blob 跟踪示例看起来很有希望,但不接受实时视频,这使得测试变得困难.它也是样本中最复杂的,使得提取相关知识并将其转换为 Python API 存在问
..
我看到有人开发了一个应用程序,可以使用相机跟踪您的脚,这样您就可以在 iPhone 屏幕上踢虚拟足球. 你怎么能做这样的事情?有谁知道有关使用 iPhone 摄像头检测和跟踪对象的任何代码示例或其他信息? 解决方案 我刚刚在 SecondConf 上做了一个演讲,我演示了如何使用 iPhone 的摄像头使用 OpenGL ES 2.0 着色器跟踪彩色对象.可以找到该演讲随附的帖子,包
..
环境: Nexus 7 果冻豆 4.1.2 问题: 我正在尝试使用 VideoView 制作一个与 RTSP 配合使用的运动检测应用程序. 我希望有类似 onNewFrameListener 的东西 videoView.onNewFrame(帧帧) 我尝试通过 VideoView 访问 RTSP 流的原始帧,但在 Android SDK 中找不到任何支持. 发现V
..
我正在构建一个 Android 游戏,我想弄清楚用户是将设备向左倾斜还是向右倾斜(类似于将人从一侧移动到另一侧时 Temple Run 的工作原理). 我阅读了许多教程和示例,并制作了示例应用程序,但是我从陀螺仪和加速度计返回的数据量是巨大的.我是否需要两套硬件才能确定用户是否倾斜设备以及向哪个方向倾斜? 我当前的应用程序正在检测每一个轻微的运动,这显然是不正确的. public c
..
我必须开发与此计步器应用程序相同的功能 我非常详细地观察了这个计步器应用.> 这不是一款完美的计步器应用.例如,如果您停留/坐在一个地方并握手,它还会检测步数和距离. 忽略这种理想和重力行为,因为在这个应用程序的说明中已经提到你应该把你的 iPhone 绑起来或者你应该把它放在你的口袋里来计算步数.通过这种方式,我发现这款应用运行良好,几乎可以检测所有步骤. 我的问题是:我根据
..
我需要一些非常简单的东西,但我找不到合适的例子来学习.我的唯一目的如下: 当设备平放在桌子上(背面)时,它的 X 和 Y 轴应显示为 0(或接近于 0).当我从顶部(扬声器所在的位置)和底部(麦克风所在的位置)提起它时 - 它应该显示手机倾斜了多少度.数学描述 - 以度为单位显示手机背面和桌子之间的角度,其中一个轴.当我抬起底部(顶部保持放下)时,显示负度数. 另一个轴也是如此 - 围
..
我想在有人摇晃 iPhone 时做出反应.我并不特别关心他们是如何摇晃它的,只是它被猛烈地挥动了一瞬间.有人知道如何检测吗? 解决方案 在 3.0 中,现在有一个更简单的方法 - 连接到新的动作事件. 主要技巧是您需要有一些 UIView(而不是 UIViewController)作为 firstResponder 来接收震动事件消息.这是您可以在任何 UIView 中使用以获取抖动
..
我正在构建一个 Android 游戏,我想弄清楚用户是将设备向左倾斜还是向右倾斜(类似于将人从一侧移动到另一侧时 Temple Run 的工作原理). 我阅读了许多教程和示例,并制作了示例应用程序,但是我从陀螺仪和加速度计返回的数据量是巨大的.我是否需要两套硬件才能确定用户是否倾斜设备以及向哪个方向倾斜? 我当前的应用程序正在检测每一个轻微的运动,这显然是不正确的. public c
..
我目前正在开发音乐播放器应用程序,并且像iPod应用程序一样,我想用摇动手势来随机播放歌曲. 我正在实现Apple推荐的运动方法,并且在前台一切正常. -(void)motionBegan:(UIEventSubtype)motion withEvent:(UIEvent *)event;-(void)motionEnded:(UIEventSubtype)motion withEvent
..
我试图仅在垂直方向上跟踪设备的移动,即向上和向下移动.这应该与设备的方向无关.我已经知道或尝试过的事情就是这些 线性加速度是由传感器TYPE_LINEAR_ACCELERATION给出的,并且这些轴是电话轴,因此跟踪任何特定轴都没有区别. 我尝试应用旋转矢量的转置或逆转(旋转矢量的逆转或转置相同),然后尝试跟踪线性加速度矢量的z方向.似乎没有帮助. 我正在尝试使用重力值(TYPE
..
我是emgu cv的新手;我正在尝试查找进行运动检测的代码。我尝试过: CvInvoke.cvAbsDiff(frame,_backgroundImage,BgDifference); ...但是我有照明问题。我想将运动的像素变白,然后在其中仅画一个矩形,但是我用白色像素覆盖了更多区域。 我需要什么去做?我可以尝试另一个功能吗? 解决方案 将单个帧转换
..
我的viewController中有这个 - (void)motionEnded:(UIEventSubtype)motion withEvent:(UIEvent *)event { if (event.type == UIEventSubtypeMotionShake) { NSLog(@"I have shaked"); } } 为什么这不起作
..
在我的应用程序中,我想检测到震动事件,并且我正在使用SensorEventListener,当我的活动在前台运行时,代码工作正常.但是,当我按手机的锁定按钮锁定屏幕时,无法检测到震动事件.我已经在三星gts5360上测试了我的代码.但是相同的代码在sony ericssion xperia mini pro上也可以正常工作.实际上,当我将设备闲置大约2秒钟时,我的三星手机没有检测到震动事件.锁定设
..
我正在尝试使用Opencv的密集光流函数的输出绘制运动矢量的颤动图,但无法找到该函数实际输出的内容.这是代码: import cv2 import numpy as np cap = cv2.VideoCapture('GOPR1745.avi') ret, frame1 = cap.read() prvs = cv2.cvtColor(frame1,cv2.COLOR_BGR2GRAY
..
我打算用增强现实功能实现一个应用程序.对于其中一项功能,我需要自我估计.在固定物体的空间中,只有相机在移动(什么也不会移动,只有很小的一部分会移动,因此它们可能会被忽略). 因此,我进行了大量搜索和阅读,偶然发现了 OpenCV .维基百科明确声明它可以用于自我情感.但是我找不到关于它的任何文档. 我需要使用OpenCV的对象检测方法自己实现自我运动算法吗? (我认为这会非常复杂,因为
..
我需要对网络摄像头的视频帧进行强大的运动检测和跟踪.背景总是一样的.目的是确定对象的位置,如果可能的话,没有阴影,但不急于去除阴影.我已经尝试过使用opencv算法进行背景减法和阈值化,但这仅取决于一张图像作为背景,如果背景亮度略有变化(或相机自动对焦),我需要该算法对于亮度或阴影变化不大. 解决方案 在OpenCV中尝试阈值处理时,是使用RGB(红色,绿色,蓝色)或HSV(色相,饱和度,
..
我仍在整理书籍扫描脚本,目前,我所需要的只是能够自动检测翻页.这本书占了整个屏幕的90%(我使用的是粗糙的网络摄像头来进行运动检测),所以当我翻页时,运动方向基本上是相同的方向. 我已经修改了动作跟踪脚本,但派生工具却无济于事: #!/usr/bin/env python import cv, numpy class Target: def __init__(self):
..
我想测试用于背景减法的ViBe算法.目前,我正在使用opencv库.我在opencv/samples/gpu/bgfg_segm.cpp和bgfg_vibe.cpp文件中找到了一个示例实现.这些文件在gpu模块下.现在,我有一个没有GPU的系统.当我尝试运行代码时,它在第一帧初始化时崩溃.有人可以告诉我如何解决这个问题吗? 提前谢谢. 解决方案 伪代码浪费了很多时间!这是非伪版.结果
..
当用户停止在特定视图中移动时,我需要在我的应用程序中进行检测。我在我的应用程序中创建类似于marque文本的东西,当用户触摸视图并在其中移动时,可以进行交互。我需要在用户抬起手指后开始滚动视图。正如我注意到,如果我将手指移过视图几秒钟,当我抬起手指时,不会调用 MotionEvent.ACTION_UP 。我捕获的最后一个事件是 ACTION_MOVE 。那么我怎样才能检测用户在几秒钟内移动视线后
..
我看到有人制作了一款使用相机跟踪你的脚的应用程序,这样你就可以在iPhone屏幕上踢一个虚拟足球。 你怎么能这样做?有没有人知道有关使用iPhone相机检测对象和跟踪它们的任何代码示例或其他信息? 解决方案 我刚才给了在SecondConf的演讲中,我演示了如何使用iPhone的相机使用OpenGL ES 2.0着色器跟踪彩色对象。随附的帖子,包括我的幻灯片和所有演示的示例代码都可以
..