google-mlkit相关内容
我正在使用Google ML和CameraX为Android(Java)开发一个对象检测应用程序。我还使用了TensorFlow模型,该模型可以在here中找到。我的问题是我的bindingBox的坐标稍微有点不对齐,如下图所示。请忽略它被检测为铲子的事实,我的问题当前专注于捕获屏幕上显示的图形中的图像。 这是用于绘制GraphicOverlay的以下类; DrawGraphic.ja
..
我正在关注 this 使用 TensorFlow lite Model Maker 创建自定义模型的教程在协作中. 导入路径库path = pathlib.Path('/content/employee_pics')count = len(list(path.glob('*/*.jpg')))数数数据 = ImageClassifierDataLoader.from_folder(path)tr
..
我将 CameraX 的分析器用例与 MLKit 的 BarcodeScanner 一起使用.我想裁剪从相机接收到的部分图像,然后再将其传递给扫描仪. 我现在正在做的是将 ImageProxy(我在分析器中收到的)转换为 Bitmap,裁剪它,然后将它传递给 BarcodeScanner.缺点是它不是一个非常快速和有效的过程. 我还注意到运行此代码时在 Logcat 中收到的警告:
..
我想使用谷歌MLKit的二维码扫描器,在nuget管理器中找到了两个packagese.这两个打包程序是: Xamarin.Google.MLKit.BarcodeScanning v116.1.0 其描述是:Xamarin.Android 绑定 Google Play 服务 - Xamarin.Google.MLKit.BarcodeScanning Xamarin.GooglePl
..
我想知道是否有办法使用 Google 的 ML Kit for Translation,为我的网络应用程序构建翻译 API.我现在付费使用 Google Translate API.正在寻找解决方法. 解决方案 ML Kit 目前不支持 Web 应用程序,它专为在原生 Android 和 iOS 应用程序中使用而设计.对于需要在语言之间进行翻译的网络应用,推荐的路径确实是使用 Google
..
Yolov3-tiny-416.tflite 是从 yolov3-tiny.weights 创建的 yolov3 tiny 模型的 tflite 模型我曾尝试从谷歌在 android 中提供的 ML kit Vision 模块中使用它.在回购:https://github.com/googlesamples/mlkit/tree/master/android/vision-quickstart
..
如果我在 MLKit 中使用 预训练的 TFLite 对象检测模型,我收到以下错误: CalculatorGraph::Run() 在运行中失败:Calculator::Open() 用于节点“BoxClassifierCalculator";失败:#vk 输出索引 0 的意外维度数:得到 3D,预期为 2D(BxN,B=1)或 4D(BxHxWxN,B=1,W=1,H=1). 知道我做错了
..
这是我之前提出的问题的延伸. 我正在使用最新版本的MLKit对象检测(不需要firebase).我正在使用自定义模型和CameraX来检测对象并标记它们/获取信息. 现在,使用我拥有的代码,它可以检测到该区域中存在对象,但是: 没有标签或边框出现; 一次不能检测多个物体; 一旦检测到对象,该应用就不会“更改"该对象.(即,当我移动手机时,尝试检测另一个物体时,显示屏上没有任何
..
我正在尝试制作一个读取QR图像并从图像中获取数据的应用程序.我正在使用最新版的Google机器学习套件来扫描条形码,并遵循有关此 https://developers.google.com/ml-kit/vision/barcode-scanning/android . 但是,在我运行该应用程序的那一刻,我遇到了以下崩溃: QR扫描仪应用出现图像错误 我不知道这是怎么回事,因为我
..
我有一个流畅的应用程序 我在pod文件中添加了 pod'GoogleMLKit/TextRecognition',并做了 pod安装 我得到了错误找到了满足 GoogleMLKit/TextRecognition 依赖性的 Specs,但它们需要更高的最低部署目标. 我想知道: 什么是最低部署目标? 如何设置? 编辑: 根据董辰的评论,这是我的Podfile:
..
我正在处理应用程序混乱问题.Android工作正常,但在iOS中没有.我需要一些帮助才能在ios mobile上运行它.我正在使用lib: google_maps_flutter:^ 0.5.27 + 3 和 firebase_ml_vision:^ 0.9.3 + 8 .Xcode 11.4.1和Mac os Catalina 10.15.4.有人知道如何解决这个问题.我还没找到. 颤振医生[
..
我正在寻找在我的Android应用程序中实现MLKit人脸识别库的方法.我唯一不了解的是,是否有可能以及如何比较两张照片并检测它们是否是同一个人.我已阅读以下指南: https://firebase.google.com/docs/ml-kit/detect-faces https://medium.com/google-developer-experts/exploring-fireba
..
Google的 MLKit(没有Firebase)是新的,所以我遇到了麻烦.我尝试在此遵循以下示例: https://developers.google.com/ml-kit/vision/object-detection/custom-models/android 该应用可以正常打开,&相机正常工作(就像我看到的一样).但是实际的检测似乎不起作用. 我是否缺少部分代码来实际检测到对
..
每次调用scan.process(image)都会导致onFailure调用,并出现以下错误: Error:com.google.mlkit.common.MlKitException:执行ML Kit任务时发生内部错误 有关任务失败原因的更多详细信息或想法吗?用条形码显示它似乎也不会改变这种行为. 使用Pixel 3a时会显示此错误,但由于SIGENV错误而使Nexus 5完全
..
我正在遵循此教程,以使用TensorFlow lite Model Maker创建自定义模型在Collab上. import pathlib path = pathlib.Path('/content/employee_pics') count = len(list(path.glob('*/*.jpg'))) count data = ImageClassifierDataLoader
..
我正在使用Firebase ML Kit进行面部检测,并且在文档中显示: 如有必要,旋转图像,使其imageOrientation属性为.up. 使用正确旋转的UIImage创建VisionImage对象. 不要指定任何旋转元数据,必须使用默认值.topLeft. 我遇到了一个问题,从互联网上传的照片通常可以正常工作,但是当我从相机拍摄照片时似乎出现了问题.我感觉这是由于图像的定向方式
..
Google的 MLKit(没有Firebase)是新的,所以我遇到了麻烦.我尝试在此遵循以下示例: https://developers.google.com/ml-kit/vision/object-detection/custom-models/android 该应用可以正常打开,&相机正常工作(就像我看到的一样).但是实际的检测似乎不起作用. 我是否缺少部分代码来实际检测到对
..