eye-tracking相关内容
到目前为止,我已经能够准确地检测到瞳孔和眼角.你可以在这里看到我在回答我自己的问题时上传的一些快照: 执行稳定的眼角检测 这是我到目前为止所做的.我通过查看 TLCP、TRCP 和 BLCP 来校准用户的视线在哪里 CP = 校准点;用于校准的屏幕点B = 底部T = 顶部L=左R = 右凝视宽度 = TRCP.x - TLCP.x凝视高度 = BLCP.y- TLCP.y 而我通
..
我正在尝试构建一个可以通过基本眼球运动控制的机器人.我将网络摄像头对准我的脸,根据我瞳孔的位置,机器人会以某种方式移动.如果瞳孔在上、下、左、右眼角,机器人将分别向前、向后、向左、向右移动. 我最初的计划是使用 eye haar 级联来找到我的左眼.然后我会在眼睛区域使用 houghcircle 来找到瞳孔的中心.我将通过找到从 houghcircle 中心到一般眼睛区域边界的距离来确定瞳孔
..
我使用OpenCV制作了一个C ++程序,以允许使用网络摄像头识别我的脸和眼睛.然后,我想确定学生的中心,然后确定屏幕上的视点或视线范围.有人知道该怎么做吗?请不要我的程序使用简单的计算机网络摄像头.预先感谢您的建议. 解决方案 我认为我的Optimeyes项目在这里: https://github.com/LukeAllen/optimeyes 可以满足您的需求:瞳孔检测和注
..
在我的眼动跟踪项目中,瞳孔中心跳得很多,我不认为这是一个固定点. 我该怎么办? 我的想法是将2帧中的瞳孔中心和瞳孔与阈值进行比较,但这并不能解决问题.另一点是相机噪音. 我该如何减少噪音? 我使用了 starburst算法. Starburst :一种基于视频的眼睛跟踪的混合算法,结合了基于特征的方法和基于模型的方法. 解决方案 上下文 关于眼动追踪技术
..
我以.edf格式(SR-RESEARCH眼线)记录了跟踪数据。我想将其转换为python中的ASC / CSV格式。我有GUI应用程序,但我想以编程方式(在Python中)进行操作。 我找到了pyEDFlib包,但找不到将眼动追踪的.edf文件转换为.asc或.csv的示例。 做到这一点的最佳方法是什么? 谢谢 解决方案 如果我信任此处的页面: http ://pyedfli
..
ARKit的ARFaceTrackingConfiguration将ARFaceAnchor与有关脸部的位置和方向的信息一起放置到场景上.除其他外,此锚具有我感兴趣的lookAtPoint属性.我知道此向量相对于面部.如何在屏幕上为此位置绘制一个点,这意味着我该如何转换该点的坐标? 解决方案 .lookAtPoint 实例属性仅用于方向估计. Apple文档说:.lookAtPoin
..
我正在尝试实施Fabian Timm的眼动跟踪算法[ http://www.inb.uni-luebeck.de/publikationen/pdfs/TiBa11b.pdf] (位于此处:[def find_pupil(eye): eye_len = np.arange(eye.shape[0]) xx,yy = np.meshgrid(eye_len,eye_len) #coordinates
..
要求是在3D空间中的每只眼睛周围定义一个矩形. 应该有一种使用Microsoft Kinect SDK跟踪眼睛的方法. 根据此 面部跟踪SDK使用Kinect坐标系输出其 3D跟踪结果.原点位于相机的光学元件上 中心(传感器),Z轴指向用户,Y轴指向 向上.度量单位是米的平移度和度 旋转角度. 添加 ... Debug3DShape("OuterCornerOfRightEye"
..
如何使用opencv检测脸部的虹膜? 解决方案 看看这个
..
richTextBox的大小为555x454像素,我使用等宽字体快递新12pt。 我试过 TextRenderer.MeasureText()还有 Graphics.MeasureString ()方法。 TextRenderer 返回的值大于 Graphics 这样的文本通常适合一行,我的代码确定应该被包装到其他行。 但是使用 Graphics ,另一方面,我的代码确定特定的字
..
我正在开展一项旨在跟踪眼球学生的项目。为此,我制作了一个头戴式系统,捕捉眼睛的图像。完成硬件部分我在软件部分。我使用 opencv 。请让我知道什么是跟踪学生的最有效的方法。 Houghcircles 效果不佳。 之后,我也尝试过 HSV 过滤器,这里是代码和 链接到原始图像的屏幕截图,处理一个。请帮助我解决此问题。该链接还包含我在此代码中使用的眼睛学生的视频。 https://pi
..
到目前为止,我已经能够准确地检测瞳孔和眼角。 您可以在我的答案中看到我上传的几个快照: 执行稳定的眼角检测 。 我通过查看TLCP,TRCP和BLCP来校准用户的注视 其中 CP =校准点;用于校准的屏幕点 B = bottom T = top L = left R = right gaze_width = TRCP.x - TLCP.x g
..
我现在工作的一个眼球跟踪项目。在这个项目中,我的眼睛跟踪在网络摄像头视频(分辨率640X480若)。 我可以定位和跟踪眼球的每一帧,但我需要找到学生。我读了很多论文,其中大部分是指艾伦Yuille的变形模板方法提取和跟踪眼球的特性。谁能帮我用任何语言这种方法的code(MATLAB / OpenCV的)? 我曾尝试与不同的阈值,但由于眼睛区域分辨率低,但它不能很好地工作。我真的会AP prec
..
任何人都知道C#,C / C ++或Objective-C的眼动跟踪库?开源是preferable。谢谢你。 解决方案 OpenCV的也许可以做到这一点。它具有执行脸部识别的能力,所以眼动追踪可能是一个子集。
..
我提出申请的眼睛通过以下链接链接和它的工作结果 如何检测眼睛是打开还是关闭? 有图书馆在android系统来检测关闭或打开 解决方案 我不知道是否有任何库,但使用human-第descirbed技术眨眼检测系统人机交互按亚历山德拉Królak和帕维尔Strumiłło(你可以下载它的这里的这里,这里是一些的简体版)在我看来是一个不错的选择。一般这种技术非常简单: 找到眼睛(或双眼
..
因此,认为这是我想建立一个软件谁可以跟踪学生的possition,但我不能找到在互联网上的数学aproch的问题。我想看看如何计算瞳孔的位置的一些例子。谢谢! 解决方案 我认为最常见的方式包括照明与点光源的主体和使用明亮的高光在角膜上找到眼球。然后,相对于亮点瞳孔的位置,让你的方向。要使用红外光和红外线黑白摄像机简化图像处理。 要制定出数学尝试用一个圆形的“眼球”素描它在2D,创建镜面高
..
我要寻找关于如何处理下面的计算机视觉问题提出了一些建议。 下面是4个样本的眼动跟踪数据集,我有工作的。我想写code需要一个这样的图像,并计算出瞳孔的中心(X,Y)的位置。我目前使用MATLAB,但我愿意接受使用其他软件了。 可有人建议我可以用这个任务的方法?这里有一些事情我已经尝试过,但没有工作也很好。 我试图用圆Hough变换,但要求我猜的学生,这是一个有点问题的半径。此外,由于扭曲,瞳孔
..
我正在开发一个映射用户眼球运动与光标的移动应用程序,因此开发ahands自由光标控制系统。 我现在用开放的简历库中的.NET包装的C#也就是Emgu CV发展。 我被困在一个地步,我想打开一个文件/文件夹,这样,当光标置于文件/文件夹说3到5秒,文件/文件夹应该打开,或只是进行双点击传统鼠标的事件。 我可以使用,以解决这个问题呢? 解决方案 定时器定时器=新System.Timers.T
..