realitykit相关内容
我已经在Reality Composer中构建了一个场景,该场景的球使场景开始漂浮在空中.我正在尝试以编程方式将球掷出,同时使它旋转. 我试图通过Reality Composer中的行为来做到这一点,但是不能同时使两种行为同时起作用,而且一旦开始动画,球会立即掉落到地面上. 我的第二次尝试是放弃行为路线,但我尝试以编程方式执行此操作,但是我无法添加力,因为加载的球是Entity而不是M
..
将一个孩子添加到我的AnchorEntity(.camera)中时,似乎该孩子在我的相机后面产卵(这意味着我只能在转身时才能看到我的孩子).我也尝试过直接将网格物体添加到我的Anchor中,但是不幸的是,当您在网格物体内部时,ARKit/RealityKit不会渲染该网格物体(这是因为理论上总是以相机为中心.但是,也可能是这样)如果它始终位于屏幕[用户所在的位置]后面,而我却看不到它. 奇怪
..
如何使用RealityKit跟踪摄像机的位置?几个示例都在使用SceneKit,但我发现没有一个在使用RealityKit.我需要一个功能,例如: func session(_ session: ARSession, didUpdate frame: ARFrame) { // Do something with the new transform let currentTr
..
我对RealityKit和ARKit很陌生.我在Reality Composer中有两个场景,一个带有书本图像锚点,另一个带有水平面锚点.具有图像锚点的第一个场景在其顶部连接有一个立方体,而在水平面上构建的第二个场景具有两个环.所有对象都有固定的碰撞.我想在圆环和立方体接触时运行动画.我找不到在Reality Composer中执行此操作的方法,因此我在代码中进行了两次尝试均无济于事. (我打印“
..
在RealityKit框架中有三种检测交叉点的方法,但是我不知道如何在我的项目中使用它. 1. func raycast(origin: SIMD3, direction: SIMD3, length: Float, query: CollisionCastQueryType,
..
我试图在我的代码中更改在Reality Composer中创建的文本实体的模型组件,但这是!将gui创建的实体强制转换为对具有模型组件的实体的引用. self.entityReference = scene.realityComposerEntity as! HasModel textEntity.model!.mesh = MeshResource.generateText("New T
..
ARKit和RealityKit中的光线投射有什么作用? 当我需要使用 makeRaycastQuery 实例方法时: func makeRaycastQuery(from point: CGPoint, allowing target: ARRaycastQuery.Target, alignment
..
我正在使用ARKit和SceneKit开发3D游戏.游戏以60 fps的速度流畅运行,但是当我持续使用一段时间后,设备发热,帧频降至30 fps.能量影响非常大,我在Instruments中注意到了一些东西.我将显示统计数据以及在Instruments中看到的内容.这是游戏平稳运行时的统计信息,但我不明白为什么节点数达到1.16K的原因.实际上,我并没有使用太多的节点,但这只是一个简单的层次. 这
..
我有一个Reality Composer场景,我想将其提取为usdz文件或可以在ARQuickLook中使用的任何文件? 有可能吗? 解决方案 来自Apple的创建3D内容使用Reality Composer 文件: 您还可以将作品保存到 .reality 文件中,以用作 您的应用程序或网络上的轻量级 AR快速查看体验.这 允许用户在现实世界中放置和预览内容以获得 快速了解情况.
..
我无法弄清楚如何使“球"实体成为物理entity/body并对其施加力. // I'm using UIKit for the user interface and RealityKit + // the models made in Reality Composer for the Augmented reality and Code import RealityKit import
..
我正在使用Reality Composer创建一个圆柱对象. 我的要求是用自定义图像包装圆柱体. 图片是由应用动态创建的. 我已经尝试过以下方法,但到目前为止没有用. 从Experience加载锚点之后. 从锚点获取模型实体. 从模型实体中获取模型组件. 添加或编辑材料. 代码: // Load the "anchor" scene from the "E
..
我使用Reality Composer创建了一个非常简单的场景("SpeechScene"),将单个语音标注对象("Speech Bubble")锚定到了Face锚点. 我已通过以下方式将此场景加载到了代码中: let speechAnchor = try! Experience.loadSpeechScene() arView.scene.anchors.append(speechA
..
通过在ModelEntity的model属性上设置材料的颜色,我可以更改对象的不透明度/alpha.但是,如何为它设置动画?我的目标是为具有完全不透明度的对象设置动画,然后使它们淡化为设置的不透明度,例如50%. 在SceneKit中的SCNNode上使用SCNAction.fadeOpacity时,这特别容易. let fade = SCNAction.fadeOpacity(by:
..
我已经在Reality Composer中的人脸锚中添加了内容,稍后,在加载我在Reality Composer中创建的Experience之后,我创建了一个人脸跟踪会话,如下所示: guard ARFaceTrackingConfiguration.isSupported else { return } let configuration = ARFaceTrackingConfigura
..
我的Experience.rcproject具有可以通过点击操作触发的动画. 两个液压缸分别命名为“按钮1"和“按钮2",并且已打开碰撞. 我正在使用Async方法加载Experience.Map场景,并使用addAnchor方法将mapAnchor添加到ViewController中的ARView中. 我试图在现场运行HitTest,以查看应用程序是否反应正常. 尽管如此,即使
..
我正在尝试在RealityKit AR场景中添加照明.而且我在Reality Composer中找不到“照明"选项.如果有添加或编辑Directional Light的方法,请告诉我.我已经尝试过Apple文档,但是不知道如何添加它们. 解决方案 目前您无法在Reality Composer中完成此操作.只需使用RealityKit.因此,您需要创建一个继承自Entity类并符合HasPo
..
在我的iOS应用中,我想使用新的Reality Composer来介绍AR的一部分. 在我的项目中,我使用以下代码加载场景: let arView = ARView.init(frame: frame) // Configure the AR session for horizontal plane tracking. let arConfiguration = ARWorldTr
..
我已经编写了代码来初始化3个Reality Composer场景中的一个,具体取决于当月的某天按下按钮. 一切正常. Reality Composer场景使用图像检测将对象放置在环境中,但是当前,一旦图像离开相机视图,这些对象就会消失. 我想将场景锚定为首先检测到图像的根节点,以便即使图像触发器不在相机视图中,用户也可以环视四周并维护对象. 我尝试在下面传递一个func渲染
..
我正在尝试绕其z轴旋转一个多维数据集,但找不到方法. RealityKit中有一种方法可以做到这一点吗? 解决方案 在RealityKit中,至少有两种方法可以使对象围绕单轴旋转: 第一种方法: let boxAnchor = try! Experience.loadBox() boxAnchor.steelBox?.orientation = simd_quatf
..
我正在编写一个使用ARSCNView hitTest函数的ARKit应用.该应用程序还将捕获的图像发送到服务器进行一些分析. 我注意到我何时做: let viewportSize = sceneView.snapshot().size let viewSize = sceneView.bounds.size 然后第一个是第二个的两倍. 问题是: 1.为什么有区别?
..