realitykit相关内容
我正在编写一个使用 ARSCNView hitTest 函数的 ARKit 应用程序.该应用还将捕获的图像发送到服务器进行一些分析. 我会注意到: 让 viewportSize = sceneView.snapshot().size让 viewSize = sceneView.bounds.size 那么第一个是第二个的两倍. 问题是: 1.为什么会有不同? 2.hitTe
..
RealityKit 框架中检测交叉点的方法共有三种,但我不知道如何在我的项目中使用它. 1. func raycast(origin: SIMD3,方向:SIMD3,长度:浮动,查询:CollisionCastQueryType,掩码:碰撞组,相对于:实体?)->[CollisionCastHit] 2. func raycast(from: SIMD3,到:SIMD3,查询:Col
..
我正在使用 ARKit 的 ARFaceTrackingConfiguration 和 ARConfiguration.WorldAlignment.camera 对齐,但我发现文档(貌似)并没有反映现实; 根据下面的文档摘录,我希望面部锚点的 transform 以右手坐标系表示.然而,当我尝试移动我的头部时,我注意到面锚的 Z 坐标始终为负(即 faceAnchor.transform.
..
我使用 Reality Composer 创建了一个非常简单的场景(“SpeechScene"),将单个语音标注对象(“Speech Bubble")锚定到 Face 锚点. 我已通过以下方式将此场景加载到代码中: 让 SpeechAnchor = 试试!Experience.loadSpeechScene()arView.scene.anchors.append(speechAnchor
..
RealityKit 的文档包括结构体:OcclusionMaterial、SimpleMaterial 和 UnlitMaterial,用于将材料添加到 ModelEntity>. 或者,您可以加载附加了材料的模型. 我想以编程方式向 ModelEntity 添加自定义材质/纹理.如何在不将材质添加到 Reality Composer 或其他一些 3D 软件中的模型的情况下即时实现这
..
开箱即用,很明显 ARKit 不允许一次跟踪超过 4 个图像.(您可以“跟踪"更多的标记,但一次只能使用 4 个).见 这个问题 了解更多详情. 但是,我想知道是否有可能的解决方法.像在计时器上添加和删除锚点或获取位置信息然后在没有 ARKit 的情况下显示相应模型等.我对 Swift 的了解相当有限,所以我还没有太多运气进行实验.任何关于正确方向的建议或指示都会有所帮助. 相比之下,
..
我从 Xcode 的默认 AR 项目开始做这个增强现实项目. 我需要知道 ARKit 使用的相机的焦距. 这个页面很好地定义了焦距: 焦距,通常以毫米(mm)表示,是基本的对摄影镜头的描述.它不是测量镜头的实际长度,但计算的光学距离光线汇聚形成物体清晰图像的点到相机焦平面上的数字传感器或 35 毫米胶片.镜头的焦距是在镜头聚焦时确定的无穷大. 说到,苹果提供了这个称为内在函
..
如何将最新的 iPad Pro 上新的 SceneReconstruction API 生成的 ARMeshGeometry 导出到 .obj 文件中? 这是SceneReconstruction 文档. 解决方案 从 Apple 的 Visualising 开始Scene Scemantics 示例应用程序,您可以从第一个锚点检索 ARMeshGeometry 对象在框架中.
..
我是增强现实领域的初学者,致力于使用智能手机创建建筑平面图(平面图、房间平面图等具有准确测量值)的应用程序.因此,我正在研究可用于此目的的最佳 AR SDK.将 Vuforia 与 ARCore 和 ARKit 进行较量的文章并不多. 请推荐最适合使用的 SDK,以及每种 SDK 的优缺点. 解决方案 更新时间:2021 年 9 月 24 日. TL;DR Google
..
ARKit 和 RealityKit 中的光线投射是什么? 当我需要使用 makeRaycastQuery 实例方法时: func makeRaycastQuery(from point: CGPoint,允许目标:ARRaycastQuery.Target,对齐:ARRaycastQuery.TargetAlignment)->ARRaycastQuery? 感谢任何帮助. 解决
..
ARAnchor 的 4x4 矩阵有 4 列.矩阵的第四列包含 x、y 和 z 坐标的 3 个平移值. 我想知道其他 3 列代表什么? 解决方案 ARKit、RealityKit 和 SceneKit 框架使用 4 x 4 转换矩阵 来平移、旋转、缩放和剪切 3D 对象(就像 simd_float4x4矩阵类型).让我们看看这些矩阵是什么样的. 在 3D 图形中,我们经常使
..
我正在尝试理解和使用 ARKit.但是有一件事我不能完全理解. Apple 关于 ARAnchor 的评价: 可用于在 AR 场景中放置对象的真实位置和方向. 但这还不够.所以我的问题是: ARAnchor 究竟是什么? 锚点和特征点有什么区别? ARAnchor 只是特征点的一部分吗? ARKit 如何确定其锚点? 解决方案 更新时间:2021 年 6 月
..
在 2018 年 WWDC 上,Apple 宣布引入新的 USDZ 文件格式. 关于创建 USDZ 文件,如下所述: 要创建您自己的 usdz 文件,已将 usdz_converter 作为 Xcode 10 beta 的一部分捆绑在一起.它是一个命令行工具,用于从 OBJ 文件、单帧 Alembic (ABC) 文件、USD 文件(.usda 或 usd.c)创建 usdz 文件
..
我想实现类似ARCore 的光线投射方法,它采用世界空间坐标中的任意光线而不是屏幕空间点: ListhitTest (float[] origin3, int originOffset, float[] direction3, int directionOffset) 我看到 ARKit 本身没有那样的方法,但无论如何也许有人有想法! 谢谢. 解决方案 在 Apple Reali
..
我是 iOS 和 Android 增强现实游戏开发的初学者.我有以下问题: ARKit for iOS 和 ARCore for Android 分别支持哪些 3D 模型格式?(我试过 .dae 和 .obj 都支持 ARkit,还没有测试 ARCore.) 我们的 3D 模型供应商只能为我们提供 FBX 格式.如何将其转换为 ARKit 和 ARCore 支持的格式?我尝试使用 3D
..
开箱即用,很明显 ARKit 不允许一次跟踪超过 4 个图像.(您可以“跟踪"更多的标记,但一次只能使用 4 个).见 这个问题 了解更多详情. 但是,我想知道是否有可能的解决方法.像在计时器上添加和删除锚点或获取位置信息然后在没有 ARKit 的情况下显示相应模型等.我对 Swift 的了解相当有限,所以我还没有太多运气进行实验.任何关于正确方向的建议或指示都会有所帮助. 相比之下,
..
我是增强现实领域的初学者,致力于使用智能手机创建建筑平面图(平面图、房间平面图等具有准确测量值)的应用程序.因此,我正在研究可用于此目的的最佳 AR SDK.将 Vuforia 与 ARCore 和 ARKit 进行较量的文章并不多. 请推荐最适合使用的 SDK,以及每种 SDK 的优缺点. 解决方案 更新时间:2021 年 9 月 24 日. TL;DR Google
..
我正在尝试为使用 RealityKit 的现有应用添加对 AR 功能的可选支持.该应用程序在 iOS 10 和 iOS 13 设备上构建并运行良好,可选功能仅在后者中启用.但是,当我为通用 iOS 设备构建或尝试存档时,我在任何 import RealityKit 语句上收到错误 No such module 'RealityKit' 并且构建失败. 该应用程序的构建目标是 iOS 10,R
..
我正在尝试从本地目录加载 rcproject .我的目标是从URL加载然后显示它. 如果我这样加载它: 让modelScene =尝试?Entity.loadAnchor(名称:"Experience") 一切正常. 但是,如果我这样做: 让url = URL(fileURLWithPath:"./Experience") 或 让url = URL(fileURLWith
..
我已经在Reality Composer中创建了多场景文件.它们在该软件中可以正常工作,但是当我将它们导出到 reality 文件中,将它们加载到我的iPhone 7上,然后运行它们时,交互行为有效,但是当我单击按钮时改变场景,什么也没发生. 这是已知错误,还是尚未实现的功能? 解决方案 这不是错误.似乎您没有在移除包含A场景的先前锚点的同时,将持有B场景的锚点追加到锚点数组中.
..