face-recognition相关内容
我在Google协作室练习OpenCV,因为我不知道如何在GPU上使用OpenCV,在我的硬件上运行OpenCV会占用很多CPU,所以我去了Google协作室。 指向我的笔记本的链接是here。 如果您不想看,代码如下: import cv2 face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.x
..
我在dlib python上的pose_predictor = dlib.shape_predictor(predictor_model)上遇到错误。 RuntimeError: Error deserializing object of type short while deserializing a floating point number. while deseriali
..
我使用以下方法计算了 PCA: 函数 [signals,V] = pca2(data)[M,N] = 大小(数据);数据 = 重塑(数据,M*N,1);% 减去每个维度的平均值mn = 平均值(数据,2);数据= bsxfun(@减号,数据,平均值(数据,1));% 构造矩阵YY = 数据'*数据/(M*N-1);[V D] = eigs(Y, 10);% 减少到 10 维% 投影原始数据信号
..
我目前的项目是建立一个人脸认证系统.我的限制是:在注册期间,用户提供单个图像进行训练.但是,我可以在身份验证时添加和使用用户提供的图像. 我想在训练中添加更多图像的原因是,用户环境不受限制 - 不同的照明条件,与相机的不同距离,来自不同的 MP 相机.唯一的缓解是姿势几乎是正面的. 我认为,上述问题类似于广泛使用的面部标记应用程序.任何人都可以提出一种自适应和智能地使用可用图像的方法吗
..
我正在尝试开发用于人脸识别/检测的 iPhone.在我的应用程序中,我想让我的 iPhone 相机应该自动对焦和自动捕捉. 如何通过 iPhone 应用识别人脸? 可以在我们的 iPhone 应用程序中自动对焦面部并自动捕捉.如果可能的话,任何人都可以帮忙吗?我只想要有关此的任何建议/想法和教程. 你能帮帮我吗?提前致谢. 解决方案 Core Image 新增 CIFac
..
我已经开始开发一款适用于 iOS 的应用程序,该应用程序可以从照片或 iPhone/iPad 相机中识别人脸. OpenCV 和 Core Image(在 iOS 5.0 中)等现有解决方案提供图像内的面部检测,但我找不到将人脸与人相匹配的库或示例. iOS 是否存在这种执行面部识别而不仅仅是检测的方法? 解决方案 在 iOS 5 上,您可以使用 CoreImage(CIDet
..
我正在尝试在 Android 上开发一个人脸识别应用程序,因为我不想在项目中使用 NDK(只是没有时间切换),我坚持开发整个应用程序Java,因此我遇到了一些问题: 似乎 OpenCV 2.4.2 中不包含 Contrib 模块.有没有办法在项目中使用它? 我尝试使用 JavaCV 来使用 Contrib 模块的“FaceRecognizer"类.有两个可用的类,称为“FaceReco
..
我目前正在开发一个实验性的相机应用.我目前正在考虑实施人脸检测,目前正在权衡我的选择. 我已经考虑过可用于 Android 的 OpenCV 端口并使用它们的人脸检测功能,但从我之前看到的演示来看,相机似乎滞后很多. 考虑到 HTC Desire 上的摄像头支持人脸检测,我知道至少有可能获得一个半不错的人脸检测系统.我只是想知道是否有人对我如何获得最佳结果有意见......使用可用库?
..
我是 Restful 概念的新手,必须为我需要设置的媒体分析服务设计一个简单的 API,以执行各种任务,例如对上传的图片和视频进行人脸分析、区域检测等. 我最初的设计大纲如下: 客户端将配置 XML 文件 POST 到 http://manalysis.com/facerecognition.这将创建一个可用于多个分析会话的配置文件.响应 XML 包含一个 ProfileID 以引用此
..
(已经在超级用户上提出了一个类似的问题,以获得与应用程序相关的答案.发布该问题是为了收集相同的可编程解决方案) 在我的工作场所,护照尺寸的照片被一起扫描,然后切割成单独的照片并以唯一的文件编号保存.目前我们使用Paint.net来手动选择、剪切和保存图片. 扫描文档 Picasa 屏幕截图示例:(来自:google image search multiple source,fairus
..
我正在尝试从流式视频中获取图像,并且花了几分钟,但是随后出现以下错误:cv2.error:OpenCV(4.1.1)C:\ projects \ opencv-python\ opencv \ modules \ imgproc \ src \ resize.cpp:3720:错误:(-215:断言失败)!函数'cv :: resize'中的ssize.empty()我的代码: 而True:re
..
我正在使用scikit-learn官方网站上的使用特征脸和SVM的人脸识别示例. 我不明白为什么?我的python版本是3.6.2,scikit-learn版本是v0.19.0 解决方案 此错误消息是一条红色鲱鱼: ValueError:min_faces_per_person = 70限制太多 您的堆栈跟踪显示此错误来自_fetch_lfw_people中的... skle
..
我正在做一个人脸识别项目,在该项目中,我正在识别运动中的人的脸,这意味着该人不断运动,我必须检测并识别人脸. 为此,我正在使用 caffemodel 进行面部检测,并使用改进的knn方法进行面部识别.它可以正常工作,但在大多数情况下会给出错误的识别.由于人们在移动,因此很难获得良好的面部图像.以下是捕获的面部的一些示例: 相机放置的位置离人所处位置略远,这是因为其面部不十分清晰和正面.
..
我正在尝试找到一种在AI相机上运行人脸识别的解决方案.并发现 MobileFacenet ( 此线程有助于转换为TFLITE,但并未提及量化.有人可以提供一些建议吗?非常感谢! 解决方案 使用 tflite_convert 需要-saved_model_dir 或-keras_model_file 被定义.使用TF2.x时,如果要从冻结图转换为量化的tflite,则应使用-enabl
..
导入face_recognition图片= face_recognition.load_image_file("My_Image.png")face_locations = face_recognition.face_locations(image)print(“我在这张照片中发现{}张脸.".format(len(face_locations) 运行上述代码时,发现以下错误消息. 回溯
..
我正在寻找在我的Android应用程序中实现MLKit人脸识别库的方法.我唯一不了解的是,是否有可能以及如何比较两张照片并检测它们是否是同一个人.我已阅读以下指南: https://firebase.google.com/docs/ml-kit/detect-faces https://medium.com/google-developer-experts/exploring-fireba
..
我正在使用OpenFace Windows二进制文件和Accord .NET创建完成得最好,与单-vs-rest方法,我正在尝试从MulticlassSupportVectorMachine 示例在API中. 但是,据我所知,该示例使用其训练数据中的输入作为测试输入,因此我不确定训练在哪里结束并开始测试,但是我假设它位于调用.Decide() 这就是我现在正在尝试的... -创建
..
我正在尝试使用 VNImageRequestHandler (iOS Vision)通过相机检测面部.当我在横向模式下用相机指向照片时,它会检测到人脸,但方向相反. 让detectFaceRequestHandler = VNImageRequestHandler(cvPixelBuffer:pixelBuffer,选项:[:])
..
可以说,对于每个检测到的人脸,我都有一组这样的界标(来自人脸检测API的结果): "eye_left":{"x":112.3,"y":210.3},"eye_right":{"x":217.5,"y":205.5},“鼻子": {"x":168.6,"y":269.7},“嘴l":{"x":119.1,"y":307.6},"mouth_l":{"x":119.1,"y":307.6},“嘴r"
..
我想在python上启动人脸识别项目.我安装了bython并安装了pipenv.之后,当我安装"pipenv install face_recognition";外壳在安装后给我一个错误. (mrblack--PGk31eo)C:\ Users \ mrblack> pipenv安装face_recognition正在安装face_recognition ... 错误:安装face_
..