android-vision相关内容
我从这里查看了最新的 Google Vision API: https://github.com/googlesamples/android-vision 我正在使用 KitKat 的 LG G2 设备上运行它.我所做的唯一更改是对 Gradle 文件中的 minSdkVerion: ...默认配置 {applicationId "com.google.android.gms.sam
..
大家好,我正在使用Google的新Face API(链接此处),该功能与改进的FaceDetection一起使用。您得到的一件事是Landmark对象列表,每个对象都有一个X和Y坐标要使用。 利用这些坐标,我试图找出图片的中心,但要弄清楚正确的数字却很困难。 这是我到目前为止所知道的: 1)不同于以前的方式,它不再是1000、1000 x -1000,-1000 2) 返回
..
我已将Google愿景集成到我的项目中,如下所示: http://code.tutsplus.com/tutorials/reading-qr-codes-using-the-mobile-vision-api--cms-24680 除了相机视图的亮度外,其他所有内容都不错。与我的实际android摄像头应用程序相比,此处的摄像头视图非常暗。 请让我知道我是否可以增加摄像头的亮度并打
..
有人知道是否有办法使用android vision API获取QR码的原始二进制数据吗? 我正在读取的QR码中包含二进制数据(包括NUL字符),但是使用8位编码构建,因此存在完整的二进制数据块。 返回的Barcode对象非常有帮助,在rawValue字段中包含字符串“ Unknown encoding”,而不是我的二进制数据? 感谢您的任何想法! 解决方案 要回答我自己的问题,似乎a
..
我正在实现 Google-vision人脸跟踪器。 MyFaceDetector 类: 公共类MyFaceDetector扩展了Detector { private Detector mDelegate; MyFaceDetector(Detector委托){ mDelegate =委托; } public SparseArray
..
我想在不允许登录Google帐户的设备上安装Google Play服务的android-vision部分。传统上,android-vision库是通过Play商店下载的,是对Google Play的更新服务。 根据此,程序包名称应为com.google.android.gms.vision.barcode。我使用adb列出了在我的根目录nexus设备上安装的所有软件包,这些设备已下载了条形码
..
使用Google移动视觉( https://developers.google.com/vision/ ) API可以离线工作吗?还是需要Internet连接? 示例应用不需要任何互联网许可。这意味着API完全脱机工作。我正在寻找对此的肯定确认。 PS。我也在寻找有关此API的更多信息。例如,它使用神经网络吗?如果是这样,使用什么算法?我在任何地方都找不到任何详细的讨论。 解决方案
..
我想使用Android Vision FaceDetector API对视频文件(例如,来自用户画廊的MP4)执行面部检测/跟踪。我可以看到许多有关使用 CameraSource 的示例>类,可在直接来自相机的流上执行面部跟踪(例如在android-vision github上),但在视频文件上没有。 我尝试通过Android Studio查看 CameraSource 的源代码,但是它被混
..
我正在尝试使用新的Android人脸检测移动视觉api处理帧图像。 因此,我创建了自定义检测器来获取Frame并尝试调用getBitmap()方法,但是它为null,因此我访问了帧的灰度数据。是否可以通过它或类似的图像持有者类来创建位图? 公共类CustomFaceDetector扩展了Detector { private Detector mDelega
..
似乎我发现自己在用于条形码扫描的Google Vision API的深草丛中。在查看了各种替代库(ZBar,ZXing甚至某些付费的第三方实现)后,也许我的想法有些沮丧,但是我在查找有关可在何处实现某种扫描的信息方面遇到了一些困难区域限制。 用例很简单:如果我是用户将手机指向带有多个相同类型条形码的盒子(请考虑运输标签)在这里),我想在屏幕上将一些小的取景器或对齐笔直指向我要捕获的东西,而不
..
下面是我的条形码扫描器活动,除了setAutoFocusEnabled(true)之外,其他所有功能都正常运行。它会在运行时返回一条消息,提示我的设备不支持自动对焦,尽管Samsung Tab E T561是支持自动对焦的设备。 导入android.os.Bundle; import android.support.v7.app.AppCompatActivity; import a
..
我当前正在编写代码,该代码应该能够查看文本图片,然后从基于Android设备的图片中提取文本。我在网上进行了一些研究,发现Google提供了自己的API,称为“ Mobile Vision”(一个包含许多项的程序包,例如文本识别,面部识别等)。但是,在他们的演示中,他们仅演示实时文本识别。我想知道是否有人可以使用Mobile Vision API在静止图像上进行文本识别的示例。欢迎任何帮助。谢谢。
..
我正在使用Android愿景中的 FaceTracker 示例API。但是,当在其上绘制叠加层时,在录制视频时遇到困难。 一种方法是将位图存储为图像,并使用FFmpeg或Xuggler将其作为视频进行处理,但是我想知道是否存在更好的解决方案,如果我们可以在投影预览时在运行时录制视频。 更新1: 我更新了跟随类与媒体记录器一起使用,但是记录仍然无法正常工作。当我调用triggerRec
..
我正在尝试在我的应用程序中实现Google Mobile Vision TextRecogniser API,以读取给定图像的文本.当我尝试使用该功能时,出现此错误: W/DynamiteModule: Local module descriptor class for com.google.android.gms.vision.dynamite not found. I/DynamiteM
..
我正在构建一个Android应用程序,使用谷歌的Android移动视觉OCR文本输入名片作为手机中的联系人。 到目前为止,我能够识别任何拉丁语生成的文本,并且能够在代码块上应用正则表达式 我所做的是我为五个变量名称,电子邮件创建了一个Contacts bean类, compnayname,website,adrs,phnno 对正在生成的实时数据应用正则表达式后,我将过滤结果并将它们
..
目前,我们的应用程序已成功运行Snapdragon SDK。我们正在尝试在我们的项目中实现Vision 8.3.0中的FaceDetector,以增加兼容设备的数量。我们不能使用CameraSource,因为我们依靠自定义相机+表面来提供某些功能。我们希望尽可能多地重用代码,Snapdragon SDK在我们当前的实现方面做得非常好。 工作流程如下: 1)检索相机预览 2)将传入
..
我使用Google的Android Vision API中的条形码阅读器示例。 预览尺寸似乎并未填满整个可用空间(我使用的是Nexus 4,预览右侧有一个白色未使用的空间,约为宽度的1/3)。 p> 我希望能够在各种设备上运行此示例,并始终填充整个可用空间。 所以我一直在玩的是: CameraSource.Builder builder = new CameraSource.
..
我使用视觉API进行人脸检测,现在我想实现眨眼,但 仍然视力api在一只眼睛关闭时检测眼睛。 解决方案 面部的“睁眼概率”值是关键以检测眨眼。此外,您可以使用跟踪器随时跟踪眼睛状态,以检测指示眨眼的事件序列: b $ b 双眼打开 - >双眼闭上 - >双眼睁开 以下是一个示例跟踪器: public class BlinkTracker extends Tracker
..
我跟着这个的关于如何建立一个Android应用程序,它可以扫描QR codeS教程。 下面是完整的code。我加入了谷歌播放使用等级像这样编译服务'com.google.android.gms:发挥服务:7.8.0。 的AndroidManifest.xml <?XML版本=“1.0”编码=“UTF-8”&GT?; <清单的xmlns:机器人=“http://schema
..
我使用该工作完全在我的设备和其他几个人的新的Android视觉库酒吧code扫描仪。但突然停止工作,我在日志中看到以下异常: 没有执行发现com.google.android.gms.vision.bar code.internal.NativeBar code [] com.google.android.gms.vision的.bar code.internal.NativeBar cod
..