face-detection相关内容
我跟随tutorial使用OpenCV和深度学习SSD框架从image实现了人脸检测。 modelFile = "./ssd/res10_300x300_ssd_iter_140000.caffemodel" configFile = "./ssd/deploy.prototxt" net = cv2.dnn.readNetFromCaffe(configFile, modelFile) i
..
我有一个包含RGB值的.txt文件,当我打开并读取这些文件时,像素值是str格式的。如何将这些值转换为在Python中显示图像。image。 这是我尝试读取值时的。它们都是字符串格式。 编辑:您可以在此处找到该文件的链接https://drive.google.com/file/d/1mAxlcMj_SVeK0axJhbPJqO4k_egJoYli/view?usp=sharing
..
如何才能像“摄像头”一样实时进行人脸检测? 我注意到AVCaptureStillImageOutput在10.0之后已弃用,因此我使用 改为AVCapturePhotoOutput。但是,我发现我为面部检测保存的图像并不是那么令人满意?有什么想法吗? 更新 在尝试了@Shravya Boggarapu之后提到。目前,我使用AVCaptureMetadataOutput检测人脸,没
..
我希望能够跟踪进出场所的人员.基本上,当用户接近 Kinect 时,它会存储他/她的面部和骨骼数据.然后在离开时,该数据将被删除.现在我只是想知道这是否可能与 Microsoft SDK 一起使用.我看过 Kinect 能够跟踪人员的视频/演示,但我的目标是唯一地识别他们.任何信息将不胜感激. 解决方案 是的,您可以保存骨骼和面部数据....但是对于您正在做的事情,听起来您只想为会话保存这
..
我需要给脸部的皮肤上色...我如何找到肤色? 现在我通过 RGB 像素值获取肤色...仍然我面临的问题是我正在匹配颜色坐标以匹配特定颜色范围的皮肤......但脸部的某些区域仍然不在我的颜色范围内,那么它不是那个区域的颜色.. 除了面部区域可能落在那个区域之外,那个区域也有颜色...... 关于我的问题的任何想法... 提前谢谢.... 我的代码: -(void)
..
我需要一个可以使用人脸检测功能裁剪任何图像的演示. 已修复 但是经过几个小时的冲浪后,我一个演示都没有,所以我准备了一个演示,并结合了我在网上找到的几个演示. 我已经准备了一个演示来裁剪图像. 我的演示裁剪了图像矩形和圆形. 它还检测人脸并根据人脸检测裁剪图像. 我正在使用下面的图片来裁剪它. 裁剪结果的截图是: 示例的xml是:
..
我在 python 中使用了 opencv 的 har 级联人脸检测器 (cv.HaarDetectObjects). 例如: faces = cv.HaarDetectObjects(灰度、级联、存储、1.2、2、cv.CV_HAAR_DO_CANNY_PRUNING, (50,50))对于面中的 f:打印(f) 这将以这种形式打印检测列表: ((174, 54, 114, 11
..
我正在使用内置的级联分类器进行人脸检测.这就是代码的样子(OpenCV Python 教程): 将 numpy 导入为 np导入简历2face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')eye_cascade = cv2.CascadeClassifier('haarcascade_eye.xml'
..
..
我正在寻找可以检测网络摄像头流中的人脸并检测性别的 SDK 或库.Windows 下免费或付费,C++ 或 C#.有什么建议吗? 解决方案 我用 Fisherfaces 做了一个性别分类实验方法 在我的博客中:http://bytefish.de/blog/gender_classification 得到了几何归一化图像的识别率为 98%.我正在为 GNU Octave/MATLAB、Py
..
我一直在实施对 Viola-Jones 的人脸检测算法的改编.该技术依赖于在图像中放置一个 24x24 像素的子帧,然后将矩形特征放置在图像中的每个位置,并且可能具有各种尺寸. 这些特征可以由两个、三个或四个矩形组成.下面给出一个例子. 他们声称详尽的集合超过 180k(第 2 部分): 鉴于检测器的基本分辨率为 24x24,详尽的矩形特征集相当大,超过 180,000 个.请注
..
R-CNN 实际上是做什么的?是不是像用CNN提取的特征来检测指定窗口区域的类?是否有任何 tensorflow 实现? 解决方案 R-CNN 正在使用以下算法: 获取用于对象检测的区域建议(使用选择性搜索). 对于每个区域,从图像中裁剪区域并通过 CNN 运行它,该 CNN 对对象进行分类. 在此基础上构建了更高级的算法,例如 fast-R-CNN 和faster R-CN
..
我正在尝试使用 opencv 和 java 进行人脸检测,在那个追求中我发现了这个“JNI2OPENCV"文件......但我对如何使它工作感到困惑,有人可以帮助我吗? http://img519.imageshack.us/img519/4803/askaj.jpg 下面是FaceDetection.java class JNIOpenCV {静止的 {System.loadLib
..
我一直在实施 Viola-Jones 的人脸检测算法的改编版.该技术依赖于在图像中放置一个 24x24 像素的子帧,然后将矩形特征放置在每个可能大小的位置. 这些特征可以由两个、三个或四个矩形组成.提供了以下示例. 他们声称详尽的集合超过 180k(第 2 部分): 鉴于检测器的基本分辨率为 24x24,详尽的矩形特征集非常大,超过 180,000 .注意,与 Haar 基不同的
..
目前我正在尝试将 Camera2.Face 转换为实际视图的矩形,以便在 Camera2 API 检测到的面部上绘制圆圈. 我可以通过以下代码将人脸数量及其数据获取到回调中: private CameraCaptureSession.CaptureCallback mCaptureCallback= 新的 CameraCaptureSession.CaptureCallback() {私有
..
我尝试使用 vs2010 运行 facedetect opencv 示例.调试结果“facedetect.exe 中 0x53fa42bf 处未处理的异常:0xC0000005:访问冲突写入位置 0x00000000." 这是代码txt 文件:http://ebooks-libs.com/backup/facedetect-opencv2.1.txt cpp 文件:http://ebook
..
所以,我有一个使用 Core Image 的人脸检测功能的应用程序( https://itunes.apple.com/us/app/ace-freakyface-cartoon-mask/id454513332?mt=8 ),我刚拿到新的 iPhone 5s,应用程序不再检测到脸.我在调试时也在控制台中收到错误: /System/Library/PrivateFrameworks/Face
..
如果您能帮助我解决 Clarifai API 的问题,我将不胜感激. 我使用 API 做了一个简单的人脸检测应用.我遵循了文档,并从我的客户那里运行了以下代码片段: app.models.predict(Clarifai.FACE_DETECT_MODEL, this.state.input).then((response) => setImageBox(this.calculateBox
..
如果您能帮助我解决 Clarifai API 的问题,我将不胜感激. 我使用 API 做了一个简单的人脸检测应用.我遵循了文档,并从我的客户那里运行了以下代码片段: app.models.predict(Clarifai.FACE_DETECT_MODEL, this.state.input).then((response) => setImageBox(this.calculateBox
..
我正在构建一个应用程序,其中我使用移动视觉sdk进行面部检测并在面部显示一些覆盖物.但是录制视频时我遇到了问题.有什么解决方案可以录制有相同问题的视频. 谢谢 解决方案 自Android 5.0起,有一个新的API可用于屏幕录像:MediaProjection.MediaProjection允许捕获屏幕内容,但不能捕获系统音频.此外,它不会捕获安全的屏幕内容.您需要用户权限才能捕获屏
..