arkit相关内容
当用户点击平面时,我可以添加新的 scnplane.但是现在,点击同一个 scnplane 它会再次添加新的 scnplane 而不是删除. 最初检测到参考图像时,它会在菜单卡的侧面列出蛋糕,其中包含图像、名称和评级.用户点击评级,它会列出用户评级. 这是我试过的代码: override func touchesBegan(_ touches: Set, with event: U
..
所以,我的目标是: 查找已知图像 guard let referenceImages = ARReferenceImage.referenceImages(inGroupNamed: "AR Resources", bundle: nil) else { return }让配置 = ARWorldTrackingConfiguration()configuration.detectionI
..
参考上图.我在屏幕中央有一个红色节点,距离为 1.0 个单位(1 米远)[见 iPhone 纵向顶视图] 我所做的是截取 iPhone 屏幕的屏幕截图,生成的图像为 750 x 1334 像素 [请参阅 iPhone 纵向前视图] sceneView.snapshot() 我想要做的是在 iPhone 屏幕相对于红圈的四边(屏幕的死点)放置 4 个红方节点.我做这个是为了标记我在哪里做快
..
我正在使用 ARKit 开发一个 ios 应用程序,我想知道如何在我的手指按在屏幕上但距离屏幕大约 0.5m 的位置创建一个节点.我知道我必须考虑设备的方向,但我仍然很困惑从哪里开始.任何帮助都会很棒!谢谢. 解决方案 解决方案很简单. 将您需要的节点作为子节点添加到具有位置向量 (0,0,1) 的相机中.现在,保存您创建的那个节点的世界位置,并立即从相机中移除子节点. 再次将
..
我有一个简单的 HTTP 服务器正在运行,我试图从我的本地服务器获取这个场景包,但它显示我 NIL 错误,或错误加载场景.我不明白如何从我的简单本地主机加载这个模型.如何配置我的代码,以便我能够从远程或本地服务器获取任何 Scenekit. 提前致谢 做 {let shipScene = try SCNScene(url: URL(fileURLWithPath: "http://loc
..
我已经使用 ARKit 2.0 完成了 3d 对象扫描和检测.我已经从物体的各个侧面扫描了 3d 物体.完成 100% 扫描后,就会为该对象命名,然后将该 ARReference 对象和图像保存在文档目录中.然后单击按钮,我将检测扫描的对象并从文档目录中显示它的名称和图像. 物体被检测到,但检测物体花费的时间太长.我已经阅读了 Apple 文档以获得最佳实践和限制.还有一些关于 ARKit
..
我认为这可能是一个 iOS 错误,我已通过错误报告将其报告给 Apple.如果我可以使用一些解决方法或解释原因,我会在此处发布它. 我想在 SceneKit 中绘制 UIBezierPath 的描边.我正在使用 CGPath copyStrokingWithWidth 函数,然后使用给定的路径创建一个 SCNShape. 这适用于 2 点的线,但在 3 点的线上,SCNShape 不显
..
我正在使用 ARKit,但无法从 SCNScene url 获取下载进度.这是我的代码: func downloadModel(hitTestResult: ARHitTestResult) {DispatchQueue.global().async {//创建加载视图//我想在这里获得下载进度let loading = UIAlertController(title: nil, message
..
问题:我正在使用 ARKIT 颤振包.我一直很难弄清楚如何为我的项目导入包含纹理的 3d 模型.该包有一个包含纹理的示例(位于 IOS Runner 文件夹中),这表明这可以通过他们的自定义 3d 对象示例 (eevee.dae) 实现. 将模型导入 Flutter 应用程序并保持其纹理/材质的最佳方法是什么? 解决方案 不幸的是,目前 Flutter 没有官方支持 3D 模型,AR
..
我需要创建一个应用程序,我们要在其中测量设备和我的用户面部之间的距离.我认为 ARKit 可以实现,但不知道该怎么做.是否有任何示例或示例? 解决方案 如果您正在运行 ARFaceTrackingConfiguration(仅适用于配备前置 TrueDepth 摄像头的设备),至少有两种方法可以实现(我认为第二种一个更好). 第一种方法 您可以使用红外摄像头的depthData
..
我正在尝试使用 Flutter 为 android 和 IOS 创建应用程序,我需要使用 ARKit 将 AR 集成到我的 IOS 应用程序中.如何在 IOS 应用中使用 swift 继续工作? 解决方案 据我所知,目前 Flutter 中没有这样的支持 今天我们不支持通过 OpenGL ES 或类似的 3D 官方信息
..
我使用 Xcode 的模板创建了一个增强现实项目. Xcode 创建一个名为 Experience.rcproject 的文件. 该项目包含一个名为 Box 的场景和一个名为 Steel Cube 的立方体. 我向 Experience.rcproject 添加了另外 3 个场景,分别称为 alpha、bravo 和 delta. 我负责项目. Xcode 运行这两行
..
如果我运行 Xcode 的 ARKit 项目模板,我可以按预期移动默认船. 我尝试导入一些我从 Blender 导出的 dae 模型,将船切换到新项目但保持代码相同.它们总是显示在视图中,但位于相机前面.如果我试图在模型周围移动,它会粘在相机前面并且不会停留在同一个虚拟空间中. 我也试过从另一个教程导入一个 dae 并且按预期工作. 在将 3d 模型导出为 Collada dae
..
我想学习 ARKit.我在github上得到了苹果的示例代码和其他示例代码. 出现错误,Xcode 报告: /Users/.../ARKitBasics-brwextbgckvaokheuvfoqkacalvx/Build/Products/Debug-iphoneos/ARKitBasics.app/Frameworks/libswiftARKit.dylib:未知错误 -1=fff
..
我在 3d 视图中有一个节点对象,我需要拖动该对象,到目前为止,我已经从这里尝试过:在 ARKit 中放置、拖动和删除 SCNNodes 并迅速转换 @objc func handleDragGesture(_gestureRecognizer: UIGestureRecognizer) {让 tapPoint =gestureRecognizer.location(in: self.sc
..
有时 ARKit 在现有平面上创建平面.它不会合并它们.我正在封闭空间中使用 iPhone 7 测试 ARKit.放置在该平面上的物体似乎漂浮在太空中.这种情况并不经常发生,我也无法一直重现.有人能告诉我如何防止出现重叠和浮动平面吗?或者如何在底面放置3D对象? 这是绘制平面的代码. func createPlaneNode(center: vector_float3, extent: v
..
我有一个自定义的 usdz 文件(不是通过代码创建的,而是说一个真正的椅子!).我将其保存在 Entity 中. 一旦我有了它,这是我的代码: func updateUIView(_ uiView: ARView, context: Context) {如果让 modelEntity = model.modelEntity {打印(“\(model.modelName)")让anchorE
..
我正在开发一个增强现实 iOS 应用程序,我使用的是 iOS 11 测试版的 ARKIT.我正在使用 ARSCNView(SceneKit) 来呈现我的 .scn 对象.我已经按照苹果给出的示例创建了一个 ARSession(https://developer.apple.com/sample-code/wwdc/2017/PlacingObjects.zip).是否可以使用自定义背景而不是相机放
..
我正在使用 Reality Composer 创建一个圆柱体对象.我的要求是用自定义图像包裹圆柱体.图片由应用动态创建. 我尝试了以下方法,但目前还没有奏效. 从 Experience 加载锚点后. 从锚点获取模型实体. 从模型实体中获取模型组件. 添加或编辑材料. 代码: //从“体验"现实文件中加载“锚点"场景让锚=尝试!Experience.loadAn
..
将模型直接从 usdz 文件添加到场景锚点时,模型下方不会出现接地阴影.如果您将模型导入 RealityComposer 并添加 RealityComposer 场景,则会出现这些.但是你能在不使用 RC 的情况下启用接地阴影吗? 我曾尝试向场景中添加一个 DirectionalLight,但这并没有投射任何阴影.我也尝试过更改 ARView 上的 RenderingOptions. //
..