coreml相关内容

如何创建 &训练一个用于 Core ML 的神经模型

Apple 推出了 Core ML.有许多第三方提供经过训练的模型. 但是如果我想自己创建模型怎么办?我怎样才能做到这一点以及使用什么工具和工具?我可以使用哪些技术? 解决方案 Core ML 不提供训练您自己的模型的方法.您只能将现有格式转换为 Apple 'mlmodel' 格式. 要创建您自己的神经网络,请使用 Caffe 或 Keras 框架,然后将这些模型转换为 Co ..
发布时间:2021-12-31 16:41:05 其他开发

将图像转换为 CVPixelBuffer 用于机器学习 Swift

我试图让在 2017 年 WWDC 上演示的 Apple 示例 Core ML 模型正常运行.我正在使用 GoogLeNet 尝试对图像进行分类(请参阅 Apple 机器学习页面).该模型将 CVPixelBuffer 作为输入.我有一个名为 imageSample.jpg 的图像,我在这个演示中使用了它.我的代码如下: var sample = UIImage(named: "imageSa ..
发布时间:2021-12-14 09:18:59 AI人工智能

对象检测 ARKit 与 CoreML

我正在为 iPhone 构建 ARKit 应用程序.我需要检测特定的香水瓶并根据检测到的内容显示内容.我使用 developer.apple.com 上的演示应用程序来扫描现实世界的对象并导出我可以在资产中使用的 .arobject 文件.它工作正常,但由于瓶子来自玻璃检测非常差.它仅在 2-30 秒范围内进行扫描的位置进行检测,或者根本没有检测到.合并扫描并不能改善情况,甚至会使情况变得更糟.合 ..

结合 CoreML 和 ARKit

我正在尝试使用 Apple 上给定的 inceptionV3 模型在我的项目中结合 CoreML 和 ARKit 网站. 我从 ARKit (Xcode 9 beta 3) 的标准模板开始 我没有创建新的摄像头会话,而是重用由 ARSCNView 启动的会话. 在我的 viewDelegate 末尾,我写: sceneView.session.delegate = self ..
发布时间:2021-11-17 21:26:48 移动开发

如何将视觉框架坐标系转化为ARKit?

我正在使用 ARKit(带有 SceneKit)来添加虚拟对象(例如球).我通过使用 Vision 框架并在视觉请求完成处理程序方法中接收其更新的位置来跟踪真实世界对象(例如脚). let request = VNTrackObjectRequest(detectedObjectObservation: lastObservation, completionHandler: self.handl ..
发布时间:2021-11-17 21:22:49 移动开发

带有 ARkit 和 CoreML 的视觉框架

虽然我一直在研究最佳实践并为正在进行的项目试验多个选项(即 Vuforia 中的 Unity3D iOS 项目与本机集成,使用 AVFoundation 提取帧,然后通过基于云的图像识别传递图像),但我来到了结论是我想使用 ARkit、Vision Framework 和 CoreML;让我解释一下. 我想知道如何捕获 ARFrame,使用 Vision Framework 使用 CoreM ..
发布时间:2021-11-17 21:22:42 其他开发

iOS 还原相机投影

我正在尝试估计与空间中的二维码相关的设备位置.我正在使用 iOS11 中引入的 ARKit 和 Vision 框架,但这个问题的答案可能并不取决于它们. 使用 Vision 框架,我能够在相机框架中获取限定二维码的矩形.我想将此矩形与从标准位置转换二维码所需的设备平移和旋转相匹配. 例如,如果我观察框架: * *乙C一种D* * 如果我距离二维码 1m,以二维码为中心,假设二维码的 ..
发布时间:2021-11-17 21:21:06 其他开发

如何将 UIImage 转换为 CVPixelBuffer

Apple 的新 CoreML 框架有一个预测函数,它采用 CVPixelBuffer.为了对 UIImage 进行分类,必须在两者之间进行转换. 我从 Apple 工程师那里得到的转换代码: 1//图像已在前面定义23 var pixelbuffer:CVPixelBuffer?= 零45 CVPixelBufferCreate(kCFAllocatorDefault, Int(imag ..
发布时间:2021-09-12 20:19:08 移动开发

如何在 Swift Playground 中使用 .mlmodel?

我已经将 .mlmodel 转换为 .mlmodelc ,并将其放在资源文件夹中.我使用 Vision framework 和 MNIST 模型,遵循本教程 (https://www.youtube.com/watch?v=bOg8AZSFvOc),但使用 swift playground. 我错过了什么?(我使用 .playground 文件,而不是 .playgroundbook 文件) ..
发布时间:2021-09-02 19:05:25 移动开发

CoreML 模型:将 imageType 模型输入转换为 multiArray

使用 PyTorch,我训练了一个简单的多类分类器,我想将其转换为 CoreML 模型格式.它已转换,但有一个问题. 我已经搜索了非常详尽但最常见的问题,与 mlmodel 的输入有关,只是关于如何将 mlmodel 的输入格式从 MLMultiArray 更改为 UIImage,因为它们必须处理图像.但是,如果我的模型需要 UIImage 作为输入,而我有多数组类型的数据,我该如何更改模型 ..
发布时间:2021-06-04 19:37:03 移动开发

如何应用iOS VNImageHomographicAlignmentObservation warpTransform?

我正在测试Apple的Vision Alignment API,并且对VNHomographicImageRegistrationRequest有疑问.有人有工作吗?我可以从其中获得warpTransform,但是我还没有看到一个有意义的矩阵,也就是说,我无法获得将图像扭曲回到源图像的结果.我正在使用Opencv warpPerspective来处理变形. 我称其为转换: 类函数单应性(_ ..
发布时间:2021-05-17 18:37:02 移动开发

CoreML:“意外错误处理模型".有时会发生错误

上下文:我正在使用由数据科学家制作的自定义CoreML模型.该模型是使用Apple SoundAnalysisPreprocessing 模型作为第一个模型的管道. SoundAnalysisPreprocessing 模型之后是包含不同卷积层和softmax的自定义模型. 问题:启动预测时,有时会得到意外错误处理模型.使用完全相同的输入,有时会得到正确的结果,有时会出现此错误. 问题 ..
发布时间:2021-05-16 20:51:22 移动开发

iOS 14.5中的CoreML内存泄漏

在我的应用程序中,我将VNImageRequestHandler与自定义MLModel一起用于对象检测. 该应用程序可以在14.5之前的iOS版本上正常运行. iOS 14.5出现时,它破坏了一切. 每当 try handler.perform([visionRequest])引发错误时(Error Domain = com.apple.vis Code = 11“遇到未知异常" ..
发布时间:2021-05-16 20:44:22 移动开发