coreml相关内容
Apple 推出了 Core ML.有许多第三方提供经过训练的模型. 但是如果我想自己创建模型怎么办?我怎样才能做到这一点以及使用什么工具和工具?我可以使用哪些技术? 解决方案 Core ML 不提供训练您自己的模型的方法.您只能将现有格式转换为 Apple 'mlmodel' 格式. 要创建您自己的神经网络,请使用 Caffe 或 Keras 框架,然后将这些模型转换为 Co
..
我试图让在 2017 年 WWDC 上演示的 Apple 示例 Core ML 模型正常运行.我正在使用 GoogLeNet 尝试对图像进行分类(请参阅 Apple 机器学习页面).该模型将 CVPixelBuffer 作为输入.我有一个名为 imageSample.jpg 的图像,我在这个演示中使用了它.我的代码如下: var sample = UIImage(named: "imageSa
..
我正在为 iPhone 构建 ARKit 应用程序.我需要检测特定的香水瓶并根据检测到的内容显示内容.我使用 developer.apple.com 上的演示应用程序来扫描现实世界的对象并导出我可以在资产中使用的 .arobject 文件.它工作正常,但由于瓶子来自玻璃检测非常差.它仅在 2-30 秒范围内进行扫描的位置进行检测,或者根本没有检测到.合并扫描并不能改善情况,甚至会使情况变得更糟.合
..
我正在尝试使用 Apple 上给定的 inceptionV3 模型在我的项目中结合 CoreML 和 ARKit 网站. 我从 ARKit (Xcode 9 beta 3) 的标准模板开始 我没有创建新的摄像头会话,而是重用由 ARSCNView 启动的会话. 在我的 viewDelegate 末尾,我写: sceneView.session.delegate = self
..
我正在使用 ARKit(带有 SceneKit)来添加虚拟对象(例如球).我通过使用 Vision 框架并在视觉请求完成处理程序方法中接收其更新的位置来跟踪真实世界对象(例如脚). let request = VNTrackObjectRequest(detectedObjectObservation: lastObservation, completionHandler: self.handl
..
虽然我一直在研究最佳实践并为正在进行的项目试验多个选项(即 Vuforia 中的 Unity3D iOS 项目与本机集成,使用 AVFoundation 提取帧,然后通过基于云的图像识别传递图像),但我来到了结论是我想使用 ARkit、Vision Framework 和 CoreML;让我解释一下. 我想知道如何捕获 ARFrame,使用 Vision Framework 使用 CoreM
..
我正在尝试估计与空间中的二维码相关的设备位置.我正在使用 iOS11 中引入的 ARKit 和 Vision 框架,但这个问题的答案可能并不取决于它们. 使用 Vision 框架,我能够在相机框架中获取限定二维码的矩形.我想将此矩形与从标准位置转换二维码所需的设备平移和旋转相匹配. 例如,如果我观察框架: * *乙C一种D* * 如果我距离二维码 1m,以二维码为中心,假设二维码的
..
下面的 MLMultiArray,我需要使用简单的 csharp/.net 类型,以便我可以与不使用 Xamarin IOS 类型的 Web 服务一起使用. 类型:MLMultiArray Final_heatmaps_0 {get;设置;} 用法: MLMultiArray Final_heatmaps_0 {Float32 1 × 1 × 19 × 32 × 32 数组}基础 {
..
Apple 的新 CoreML 框架有一个预测函数,它采用 CVPixelBuffer.为了对 UIImage 进行分类,必须在两者之间进行转换. 我从 Apple 工程师那里得到的转换代码: 1//图像已在前面定义23 var pixelbuffer:CVPixelBuffer?= 零45 CVPixelBufferCreate(kCFAllocatorDefault, Int(imag
..
我们正尝试在我们的 iOS 应用中使用 TensorFlow Face Mesh 模型.型号详情:https://drive.google.com/file/d/1VFC_wIpw4O7xBOiTgUldl79d-LsnA/视图. 我按照 TS 官方教程设置模型:https://firebase.google.com/docs/ml-kit/ios/use-custom-models 并且还
..
通过“诗人的张量流",我重新训练了 inceptionv3 图.现在我想使用 tfcoreml 转换器将图形转换为 iOS coreML 模型. 但是 tf_coreml_converter.py 因“NotImplementedError: Unsupported Ops of type: PlaceholderWithDefault"而停止. 我已经尝试过“optimize_for
..
我已经将 .mlmodel 转换为 .mlmodelc ,并将其放在资源文件夹中.我使用 Vision framework 和 MNIST 模型,遵循本教程 (https://www.youtube.com/watch?v=bOg8AZSFvOc),但使用 swift playground. 我错过了什么?(我使用 .playground 文件,而不是 .playgroundbook 文件)
..
我正在使用 .playground 文件,但似乎无法向其中添加我的 CoreML 模型.我将它拖到 Resources 文件夹中,这是我的代码: func predict(image: CGImage) {让模型=尝试!VNCoreMLModel(for: Inceptionv3().model)让请求 = VNCoreMLRequest(模型:模型,completionHandler:结果)让
..
我使用 CreateML 来训练一个新的自定义 ObjectDector.到目前为止,一切都运行良好. 现在我只是想知道,在后台训练什么样的网络?是类似于 YOLO 还是 Mobilenet? 我在官方文档中没有找到任何内容: https://developer.apple.com/documentation/createml#overview 解决方案 有两个选项:
..
使用 PyTorch,我训练了一个简单的多类分类器,我想将其转换为 CoreML 模型格式.它已转换,但有一个问题. 我已经搜索了非常详尽但最常见的问题,与 mlmodel 的输入有关,只是关于如何将 mlmodel 的输入格式从 MLMultiArray 更改为 UIImage,因为它们必须处理图像.但是,如果我的模型需要 UIImage 作为输入,而我有多数组类型的数据,我该如何更改模型
..
我研究了本教程 https://www.tensorflow.org/tutorials/generative/cyclegan,并且在Windows上可以很好地完成模型.然后,我将此tf模型转换为mlmodel,但是模型的输出(MultyArray)的形状为空.我该如何解决这个问题...?(此型号的EPOCH为1) 计算机::: Windows10/Tensorflow和-gpu 2.2/
..
我正在运行来自iPhone 6上的keras的mlmodel.预测经常失败,并出现错误计算NN输出错误.有人知道原因是什么吗,如果我能做些什么呢? do {返回try model.prediction(input1:input)}抓住let er {fatalError(err.localizedDescription)//错误计算NN输出错误}
..
我正在测试Apple的Vision Alignment API,并且对VNHomographicImageRegistrationRequest有疑问.有人有工作吗?我可以从其中获得warpTransform,但是我还没有看到一个有意义的矩阵,也就是说,我无法获得将图像扭曲回到源图像的结果.我正在使用Opencv warpPerspective来处理变形. 我称其为转换: 类函数单应性(_
..
上下文:我正在使用由数据科学家制作的自定义CoreML模型.该模型是使用Apple SoundAnalysisPreprocessing 模型作为第一个模型的管道. SoundAnalysisPreprocessing 模型之后是包含不同卷积层和softmax的自定义模型. 问题:启动预测时,有时会得到意外错误处理模型.使用完全相同的输入,有时会得到正确的结果,有时会出现此错误. 问题
..
在我的应用程序中,我将VNImageRequestHandler与自定义MLModel一起用于对象检测. 该应用程序可以在14.5之前的iOS版本上正常运行. iOS 14.5出现时,它破坏了一切. 每当 try handler.perform([visionRequest])引发错误时(Error Domain = com.apple.vis Code = 11“遇到未知异常"
..