realitykit相关内容
我正在将ARCoachingOverlayView添加到我的ARView中,如下所示 let coachingOverlayTemp = ARCoachingOverlayView() coachingOverlayTemp.delegate = self coachingOverlayTemp.session = self.session coachingOverlayTemp.goal
..
我们能够使用位掩码进行自定义光线投射: let hitTest = sceneView.hitTest(location, options: [categoryBitMask: bitmask]) 但hitTest现在已弃用,我想不出如何为光线投射查询设置位掩码: let query = sceneView.raycastQuery(from: location, allowing
..
我想展示画廊中的图像。 我正在使用ImagePicker加载图像。 func imagePickerController(_ picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [UIImagePickerController.InfoKey : Any]) { guard let image =
..
我有我的实体,也有物理实体,我用if let语法检查它: if let scoot = scooter as? HasPhysics { ... } 这是咒语我能够通过使用UITapGestureRecognizer让用户点击这只是我希望使用swipe或pan手势的第一次迭代。 // I can get the location of the tap in the arView l
..
let height: Float = 1 let width: Float = 0.5 let box = MeshResource.generateBox(width: 0.02, height: height, depth: width) 此框将具有与当前摄像机位置相同的实时位置,在AR World中,我将有多个形状不同的框,我希望识别哪个对象与当前实时框相交。 我不能用位置匹配(
..
我一直在使用Reality Composer和一个框架实体,是从库中下载的。 我希望访问对象的属性以编程方式提供要在框架中显示的图像。 这里您可以看到有一个配置,我可以从我的图库导入照片。但我想通过编程来实现。 也就是说,我希望访问Frame对象属性并以编程方式提供图像。 但我做不到。 do { let boxAnchor = try ImageFrame.load
..
我正在开发一款具有AR功能的iOS购物应用程序。用户可以使用iOS QuickLook在AR中预览产品。AR模型是USDZ文件。 由于应用程序/设计要求,我不得不在QuickLook屏幕上添加自定义视图。用户应该能够在AR QuickLook Screen中选择颜色,所以我创建了一个从QLPreviewController派生的新视图控制器,并添加了一些UI组件(集合视图、按钮等)。我对每种
..
我的arViewReality Composer中有一个fanfare.reality模型。我按entity(at:location)进行光线投射,并启用对象的ModelDebugOptionsComponent(visualizationMode: .lightingDiffuse)命中,这会使对象的外观变为灰色。然而,我发现只有旗帜本身变灰了,旗帜上的旗帜根本没有变化。 我通过LoadA
..
我正在写Swift,并试图获取RealityKit相机的旋转。 我已通过以下方式成功获得该职位: xsettings.xcam = arView.session.currentFrame?.camera.transform.columns.3.x ?? 0); xsettings.ycam = arView.session.currentFrame?.camera.transform.col
..
我有一个名为matrix.usdz的文件(存在于检查了目标成员身份的主包中),需要用 加载它 do { let path = Bundle.main.path(forResource: "Matrix", ofType: "usdz")! let url = URL(fileURLWithPath: path) let assetsLoader
..
是否有人找到了一种工作流程,可以为打包在USDZ文件中的骨架网格创建多个动画并使用RealityKit播放这些动画? 我有一个带有两个动画(空闲和运行)的骨架网格。我想将它们打包到单个USDZ文件中(如果有必要,甚至打包成多个USDZ文件),以便在RealityKit中使用。 我已经能够创建一个FBX用于导出我的骨架网格和动画,并将它们发送到Sketchfab以获得RealityKit可以
..
我已成功将USDZ文件加载到我的场景中。现在我想添加ModelEntity运动。我已添加了PhysicsMotionComponent,但它不起作用。加载模型后,它像往常一样是静态的。没有动静。如何在RealityKit中给出实体运动? 当我看到组件时,我看到组件已添加。但实体是不动的。我做错了什么? 我的代码: import SwiftUI import RealityKit
..
在我的previous question中,我已经找到了如何在对象上仅在一个轴上放置旋转变换,现在我希望将其设置为动画。 是否有在RealityKit中执行此操作的方法? 推荐答案 变换动画 您可以使用.move(...)实例方法在RealityKit中移动、旋转和缩放模型。为了更快地编译,我使用了MacOS应用程序-尽管你也可以在iOS应用程序中使用这段代码。 im
..
我已在Experience.rcproject文件中创建了3个场景,该文件是在您使用Xcode启动新的增强现实项目时创建的。 我经常在3D中工作,我会说这是一个场景中的3个对象,但在Experience.rcproject中我添加了3个场景。在每一个内部,都有相同的3D模型。第一个固定在水平面上,第二个固定在垂直平面上,第三个固定在图像上。 我是第一次使用Reality Kit,并在此过程
..
如何将最新iPad Pro上新的SceneReconstruction接口生成的ARMeshGeometry导出到.obj文件? 以下是SceneReconstruction文档。 推荐答案 从苹果的Visualising Scene Scemantics示例应用开始,您可以从框架中的第一个锚检索ARMeshGeometry对象。 导出数据的最简单方法是首先将其转换为MDL
..
我正在尝试理解和使用 ARKit.但是有一件事我不能完全理解. Apple 谈到 ARAnchor: 可用于在 AR 场景中放置对象的真实位置和方向. 但这还不够.所以我的问题是: ARAnchor 究竟是什么? 锚点和特征点有什么区别? ARAnchor 只是特征点的一部分吗? ARKit 如何确定其锚点? 解决方案 更新日期:2021 年 11 月 20
..
我最近尝试向我的 AR 应用添加一个欢迎屏幕,用作主屏幕.当应用加载时,用户可以点击按钮,然后应用会死机、崩溃并显示代码 “线程 1:"-[_0_2_2020_2.WelcomeViewControllerletsGo:]:无法识别的选择器发送到实例 0x13ec05e00" 我已经尝试了一些可用的解决方案,但我一直无法想出一个解决方案.我认为这与我的 *IBAction 连接有关.非常感谢
..
我正在尝试使用在项目中导入的 .usdz 文件在真实世界的对象(如墙壁、沙发和...)之间应用碰撞.我曾尝试使用 PhysicsBodyComponent 和 CollisionComponent 但没有任何结果.这是导入 3D 对象的代码: 让 entityName = objects.objectName守卫让实体=尝试?Entity.load(named: entityName, in:
..
ARCoachingOverlayVew 有 4 种目标类型:horizontalPlane、verticalPlane、anyPlane 和 tracking>. 但是 Reality Composer 有 5 种类型的锚点: 显然,前两个是为了当水平 当我跟踪Image 或Face 时,我应该在什么模式下调整ARCoachingOverlayVew?horizonta
..
情况 我正在 xcode (11.3.1) 中制作 AR 应用.我已经使用现实编辑器将对象(例如立方体)添加到场景中,并使用现实编辑器向这些对象添加了行为(即点击和翻转并查看相机).保存,切换到 ViewController.swift 在 ViewController 中,我加载 Experience.rcproject 并通过编写 var box = try! 访问默认的 Box
..