augmented-reality相关内容
我一直在寻找 ARKit(特别是 ARSCNView)是否在所有设备上显示相同的屏幕/视图/场景大小的答案.我只有一部 iPhone XS,因此无法在其他设备上测试我的 ARKit 应用. 目前我正在用 SpriteKit 的 SKScene 覆盖它,在 SpriteKit 中有 2 种不同尺寸的所有设备都可以运行. 通过打印语句,我已经能够通过前置摄像头找到它,从而在屏幕上呈现我的脸
..
我正在尝试使用以下方法从当前 ARFrame 获取图像: if let imageBuffer = sceneView.session.currentFrame?.capturedImage {让方向 = UIApplication.shared.statusBarOrientation让 viewportSize = sceneView.bounds.size让转换 = sceneView.s
..
我想要实现的目标: 将球体附加到相机位置(以便在设备移动时它始终保持在屏幕的中心)并检测它何时位于其他 AR 之上对象 - 在 AR 对象上触发其他动作/行为. 方法:我已经创建了球体并附加到屏幕的中心,如下所示 @IBOutlet var arView:ARView!覆盖 func viewDidLoad() {super.viewDidLoad()让网格 = MeshResource.
..
我想创建一架飞机: func getShadowPlane(_ width: Float, _ height: Float) ->模型实体{让 sphereResource = MeshResource.generatePlane(width: width,深度:高度)让 myMaterial = ShadowMaterial .????返回模型实体(网格:sphereResource,材料:[
..
我开始使用 ARKit,我有一个用例,我想知道从一个已知位置到另一个位置的运动. 所以我想知道是否有可能(就像每个跟踪解决方案一样)在 ARKit 中设置一个已知的位置和方向作为跟踪的起点? 问候 解决方案 至少有六种方法可以让您为模型设置起点.但是在您的 ARScene 中根本不使用 ARAnchors 被认为是糟糕的 AR 体验(尽管 Apple 的增强现实应用模板在代码中
..
在运行时从 iOS 内部的 URL 加载 3d 模型的最佳方法是什么.我试过这个 .scn 和 .gtlf 模型导入器. 我正在使用这个框架 https://github.com/prolificinteractive/SamMitiAR-iOS 我像这样加载模型: 让 virtualObjectGLTFNode = SamMitiVirtualObject(gltfUrl: URL(st
..
我在 Reality Composer 中构建了一个场景,其中有一个球,可以启动漂浮在空中的场景.我试图在同时旋转球的同时以编程方式扔球. 我尝试通过 Reality Composer 中的行为来做到这一点,但无法让两种行为同时工作,而且,一旦我开始动画,球会立即落到地上. 我的第二次尝试是放弃行为路线,我尝试以编程方式执行此操作,但我无法添加力,因为加载的球是实体而不是模型实体.我做
..
我正在加载一个 300mb 的 .dae 扩展 3d 模型,转换为 .scn,有 440 万个顶点,150 万个多边形,这是一个建筑的 3d 模型,由一位艺术家在 3DS MAX 中创建,如下所示: 让sceneToLoad = SCNScene(命名为:“art.scnassets/building1.scn")! (它被加载到应用程序的 SCNView 默认查看器中,以便用户可以查看、旋转
..
我对使用 ARKit 跟踪手机位置以使用相机自动拍照的功能很感兴趣.我最初的调查让我明白,虽然 ARKit 正在使用相机,但使用标准的 AVFoundation 方法(由于相机正在使用)无法获得高质量的图像. 我知道我可以使用 sceneView.snapshot(),但它可以提供的最佳质量是 1080p,这对于我的应用程序来说不够高. 我的问题是,有没有其他方法可以在 ARSessi
..
我正在使用 ARKit 和 SceneKit 开发 3D 游戏.游戏以 60 fps 流畅运行,但是当我继续使用它一段时间时,设备会变热并且帧速率下降到 30 fps.能量影响非常高,我在 Instruments 中注意到了一些东西.我将展示统计数据以及我在 Instruments 中看到的内容.这是游戏流畅运行时的统计数据,但我不明白为什么我得到 1.16K 作为节点数.我实际上并没有使用这么多
..
我有一个 Reality Composer 场景,我想将它提取为 usdz 文件或任何可以在 ARQuickLook 中使用的文件?有可能吗? 解决方案 来自 Apple 的 Creating 3D Content与现实作曲家文档: 您还可以将您的作品保存到 .reality 文件中,以用作轻量级 AR Quick Look 在您的应用或网络上的体验.这个允许用户在现实世界中放置和预
..
我有一个 ARView,它会在 coachingOverlay 成功完成后立即填充. 如何调用函数从另一个视图(Navbar)重置此 ARView 并运行 coachingOverlay 以再次初始化 AR? struct ContentView : 查看 {var主体:一些视图{ZStack {ARViewContainer().edgesIgnoringSafeArea(.all)虚拟
..
我在 ARKit 1.5 中的图像检测工作正常,但在 ARKit 2.0 中,每当我启动我的应用程序时,它会在看起来像 1 帧相机后冻结.我仍然可以与自动生成在屏幕上的对象交互,但相机停止更新.我正在使用 Unity 插件,每次我在 Unity AR 相机管理器脚本中更改图像跟踪下的字段时,我似乎都遇到了这个问题.有没有其他人遇到过这种情况? 解决方案 最后,我从 Apple 开发者论坛.
..
我想实现类似ARCore 的光线投射方法,它采用世界空间坐标中的任意光线而不是屏幕空间点: ListhitTest (float[] origin3, int originOffset, float[] direction3, int directionOffset) 我看到 ARKit 本身没有那样的方法,但无论如何也许有人有想法! 谢谢. 解决方案 在 Apple Reali
..
如何以编程方式添加 ARSCNView?如何设置宽度、高度和约束? class ViewController: UIViewController {varsceneView:ARSCNView!让配置 = ARWorldTrackingConfiguration()覆盖 func viewDidLoad() {super.viewDidLoad()self.sceneView.debugOpti
..
我的目标是计算“可见"垂直平面的一部分,锚定到某个 ARPlaneAnchor 并用四边形表示,如下图所示: 我目前的方法是基于少数命中测试,不幸的是,这似乎没有给我令人满意的结果. 首先,当我检测到一个 ARPlaneAnchor 时,我会在它的主节点上添加一个巨大的隐形 SCNNode. func renderer(_ renderer: SCNSceneRenderer, di
..
我有一个简单的问题.如果我想开始游戏并将棋盘放在我面前: gameBoard!.position = SCNVector3(0, 0, -0.6) 这一直有效,直到我离开游戏并再次回来.我可以在镜头前或 0.6m 前面完全相同的位置显示游戏板吗?我可能已经搬到了另一个位置. 解决方案 如果您想重置 ARSession,您必须暂停、删除所有节点并通过重置跟踪和删除锚点重新运行会话.
..
我已经使用 ARKit 2.0 完成了 3d 对象扫描和检测.我已经从物体的各个侧面扫描了 3d 物体.完成 100% 扫描后,就会为该对象命名,然后将该 ARReference 对象和图像保存在文档目录中.然后单击按钮,我将检测扫描的对象并从文档目录中显示它的名称和图像. 物体被检测到,但检测物体花费的时间太长.我已经阅读了 Apple 文档以获得最佳实践和限制.还有一些关于 ARKit
..
问题:我正在使用 ARKIT 颤振包.我一直很难弄清楚如何为我的项目导入包含纹理的 3d 模型.该包有一个包含纹理的示例(位于 IOS Runner 文件夹中),这表明这可以通过他们的自定义 3d 对象示例 (eevee.dae) 实现. 将模型导入 Flutter 应用程序并保持其纹理/材质的最佳方法是什么? 解决方案 不幸的是,目前 Flutter 没有官方支持 3D 模型,AR
..
我使用 Xcode 的模板创建了一个增强现实项目. Xcode 创建一个名为 Experience.rcproject 的文件. 该项目包含一个名为 Box 的场景和一个名为 Steel Cube 的立方体. 我向 Experience.rcproject 添加了另外 3 个场景,分别称为 alpha、bravo 和 delta. 我负责项目. Xcode 运行这两行
..