realitykit相关内容
我使用代码在 RealityKit 中添加图片纹理,效果很好. var material = SimpleMaterial()material.baseColor = 试试!.texture(.load(named: "image.jpg")) 我尝试用这段代码将视频文件添加为纹理,但是崩溃了!!! guard let url = Bundle.main.url(forResource: "
..
出于某种原因,即使我在 Stackoverflow 上查看了某人的问题,我也无法让人们进行遮挡.这是我的代码: //加载ARView让 arView = ARView(frame: .zero)//加载人遮挡让会话 = ARSession()如果让配置 = session.configuration as?ARWorldTrackingConfiguration {configuration.f
..
如何使用 RealityKit 跟踪相机的位置?有几个例子在使用 SceneKit,但我发现没有一个使用 RealityKit.我需要一个函数,例如: func session(_ session: ARSession, didUpdate frame: ARFrame) {//用新的变换做一些事情让 currentTransform = frame.camera.transformdoSome
..
遵循 Apple 的 通过音频创建沉浸式 AR 体验,我认为尝试将对象放置在任何地方而不仅仅是在垂直和水平平面上会很有趣.是否可以在没有平面检测的情况下使用触摸放置对象?我知道平面检测会提高命中测试和 ARAnchor 检测的准确性,那么有没有办法在场景中的任何其他位置执行命中测试? 解决方案 如果您的 AR 场景在当前会话中已经包含任何 3D 几何图形,您绝对可以使用 hit-testi
..
我正在尝试在我的 RealityKit AR 场景中添加照明.而且我在 Reality Composer 中找不到照明选项.如果有办法添加 Directional Light 或编辑它,请告诉我.我已经尝试过 Apple 文档,但无法理解如何添加它们. 解决方案 目前在 Reality Composer 中无法做到,需要使用 RealityKit.因此,您需要创建一个继承自Entity 类
..
这可能是一个晦涩的问题,但我在网上看到很多非常酷的示例,说明人们如何使用 ARKit 3 中新的 ARKit 人物遮挡技术来有效地将人物与背景“分离",并应用某种过滤到“人"(见 here). 在查看 Apple 提供的源代码和文档时,我发现我可以从 ARFrame 中检索 segmentationBuffer,我已经这样做了; func session(_ session: ARSess
..
在我的 iOS 应用中,我想使用新的 Reality Composer 引入 AR 的一部分. 在我的项目中,我使用以下代码加载场景: let arView = ARView.init(frame:frame)//为水平面跟踪配置 AR 会话.让 arConfiguration = ARWorldTrackingConfiguration()arConfiguration.planeDet
..
我在 Xcode 中有一个 RealityKit 项目,我想记录 ARView.我考虑过 ReplayKit,但那是为了屏幕录制,我只想用它的相机源录制 ARView.我考虑过 AFathi 的开源项目 ARVideoKit,但它不支持 RealityKit ......一些关于不同渲染路径的东西.我找到了一篇 Medium 文章,它描述了如何在 ARKit 应用程序中实现录音功能,但问题是它需要
..
我可以使用 RealityKit 的 load(contentsOf: withName: inputMode: loadingStrategy: shouldLoop:) 轻松加载 .mp3 和 .aiff 音频文件类型方法. static func load(contentsOf url: URL,withName 资源名称:字符串?= 零,inputMode: AudioResource.
..
我正在尝试绕其 z 轴旋转一个立方体,但我找不到方法. RealityKit 有没有办法做到这一点? 解决方案 在 RealityKit 中,至少有三种方法可以绕单轴旋转对象. 在每个示例中,我们逆时针 (CCW) 旋转一个对象. 第一种方法: 让 boxScene = 试试!经验.loadBox()boxScene.steelBox?.orientation = si
..
我想使用 ARKit 和 RealityKit 检测 2D 图像.我不想使用 SceneKit,因为很多实现都基于 RealityKit.我在 RealityKit 上找不到任何检测图像的示例.我参考了 https://developer.apple.com/documentation/arkit/detecting_images_in_an_ar_experience 示例来自苹果的代码.它使用
..
我想使用 ARKit 和 RealityKit 检测 2D 图像.我不想使用 SceneKit,因为很多实现都基于 RealityKit.我在 RealityKit 上找不到任何检测图像的示例.我参考了 https://developer.apple.com/documentation/arkit/detecting_images_in_an_ar_experience 示例来自苹果的代码.它使用
..
我无法从内存中释放我的 RealityKit ARView(). 我知道 ARKit + SceneKit 存在(有?)类似问题 – 有如下解决方法:https://stackoverflow.com/a/53919730/7826293不幸的是,这并没有解决我的问题. 上述解决方案通过手动删除所有“可疑"内容来工作.这正是我在更大范围内所做的: class ViewControll
..
我在 Reality Composer 中创作了一个场景并在其中添加了 3 个对象.问题是阴影太强烈(暗). 我尝试在 RealityKit 中使用来自 这个 答案,而不是 Reality Composer 的默认灯光(因为您无法选择调整其中的灯光). 更新我按照@AndyFedo 在答案中的解释实现了聚光灯照明.阴影还是那么黑. 解决方案 当我在“场景开始"上使用“隐藏"动作
..
我的 Experience.rcproject 有可以通过点击动作触发的动画.两个圆柱体分别命名为“Button 1"和“Button 2",并开启了碰撞. 我使用 Async 方法加载 Experience.Map 场景和 addAnchor 方法将 mapAnchor 添加到 ViewController 中的 ARView. 我尝试在现场运行 HitTest 以查看应用程序是否正
..
我是 iOS 和 Android 增强现实游戏开发的初学者.我有以下问题: ARKit for iOS 和 ARCore for Android 分别支持哪些 3D 模型格式?(我试过 .dae 和 .obj 都支持 ARkit,还没有测试 ARCore.) 我们的 3D 模型供应商只能为我们提供 FBX 格式.如何将其转换为 ARKit 和 ARCore 支持的格式?我尝试使用 3D
..
通过在 ModelEntity 的 model 属性上设置材质的颜色,我可以改变对象的不透明度/alpha.但是你如何制作动画呢?我的目标是为对象设置完全不透明度的动画,然后让它们淡化到设定的不透明度,例如 50%. 在 SceneKit 中的 SCNNode 上使用 SCNAction.fadeOpacity,这特别容易. 让淡入淡出 = SCNAction.fadeOpacity(by
..
我目前正在用 RealityKit 做一些实验. 我一直在查看一些示例代码,我对 ARAnchor 和 AnchorEntity 之间的区别以及何时使用一个而不是另一个感到有些困惑. 到目前为止我知道: 两者都是描述现实世界中位置的锚点. AnchorEntity 还可以将其他 Entity 作为子项,因此您可以将模型对象直接添加到锚点.你不能用 ARAnchor 做到这一点,
..
我对 RealityKit 和 ARKit 还很陌生.我在 Reality Composer 中有两个场景,一个带有书籍图像锚点,一个带有水平平面锚点.第一个带有图像锚点的场景顶部有一个立方体,第二个场景构建在水平面上有两个环.所有物体都有一个固定的碰撞.我想在环和立方体接触时运行动画.我在 Reality Composer 中找不到执行此操作的方法,因此我在代码中进行了两次尝试,但均无济于事.(
..
我在 Reality Composer 中向面部锚点添加了内容,稍后,在加载我在 Reality Composer 上创建的 Experience 后,我创建了这样的面部跟踪会话: guard ARFaceTrackingConfiguration.isSupported else { return }让配置 = ARFaceTrackingConfiguration()configuratio
..