augmented-reality相关内容
我在实现ARKit/SceneKit时面临一个问题。我只想将纹理添加到3D模型的某些部分(例如,汽车的3D模型,我想在其中更改车轮和镜子的纹理)。 let dragonScene = SCNScene(named: "art.scnassets/Dragon_Baked_Actions_fbx_6.dae")! let position = anchor.transform for chi
..
SWIFT中有没有办法检查设备是否有LiDAR传感器?不幸的是,我在苹果的官方纪录片和互联网搜索中都没有找到任何东西。 我目前的解决方法是确定设备类型,如本文所述: How to determine the current iPhone/device model? 谢谢 推荐答案 使用此代码:- import ARKit let supportLiDAR = ARW
..
我目前正在开发ARKit(SpriteKit)应用程序。我注意到,如果我将一个节点放在100m处,该节点将显示得很好,但如果我将其设置为101m或更远,它将不会显示。 这是距离限制吗? var translation = matrix_identity_float4x4 translation.columns.3.x = 1 translation.columns.3.y = 1 tr
..
您现在可以使用与Xcode 10测试版捆绑在一起的Apple命令行工具将3D模型转换为.usdz文件(未压缩的Zip存档)。 将.obj文件转换为.usdz的示例代码: xcrun usdz_converter magnifying_glass.obj -g frame magnifying_glass.usdz -color_map gold-basecolor.png -norm
..
我已成功将USDZ文件加载到我的场景中。现在我想添加ModelEntity运动。我已添加了PhysicsMotionComponent,但它不起作用。加载模型后,它像往常一样是静态的。没有动静。如何在RealityKit中给出实体运动? 当我看到组件时,我看到组件已添加。但实体是不动的。我做错了什么? 我的代码: import SwiftUI import RealityKit
..
在我的previous question中,我已经找到了如何在对象上仅在一个轴上放置旋转变换,现在我希望将其设置为动画。 是否有在RealityKit中执行此操作的方法? 推荐答案 变换动画 您可以使用.move(...)实例方法在RealityKit中移动、旋转和缩放模型。为了更快地编译,我使用了MacOS应用程序-尽管你也可以在iOS应用程序中使用这段代码。 im
..
我已在Experience.rcproject文件中创建了3个场景,该文件是在您使用Xcode启动新的增强现实项目时创建的。 我经常在3D中工作,我会说这是一个场景中的3个对象,但在Experience.rcproject中我添加了3个场景。在每一个内部,都有相同的3D模型。第一个固定在水平面上,第二个固定在垂直平面上,第三个固定在图像上。 我是第一次使用Reality Kit,并在此过程
..
如何将最新iPad Pro上新的SceneReconstruction接口生成的ARMeshGeometry导出到.obj文件? 以下是SceneReconstruction文档。 推荐答案 从苹果的Visualising Scene Scemantics示例应用开始,您可以从框架中的第一个锚检索ARMeshGeometry对象。 导出数据的最简单方法是首先将其转换为MDL
..
我正在尝试理解和使用 ARKit.但是有一件事我不能完全理解. Apple 谈到 ARAnchor: 可用于在 AR 场景中放置对象的真实位置和方向. 但这还不够.所以我的问题是: ARAnchor 究竟是什么? 锚点和特征点有什么区别? ARAnchor 只是特征点的一部分吗? ARKit 如何确定其锚点? 解决方案 更新日期:2021 年 11 月 20
..
我正在尝试运行此代码(https://snack.expo.io/Hk1C_YqjW) 在我的 android 设备上使用 Expo XDE,但是当涉及到这一行时: const arSession = await this._glView.startARSessionAsync(); 显示此错误并停止: [未处理的 Promise 拒绝:TypeError: undefined is not
..
我正在尝试开发一个迷你“Around Me",例如使用相机、指南针和位置.我想在我的屏幕上显示地点的图像.目前我有我的位置和我的指南针方向.我想知道如何确定我想展示的地方的位置. 感谢您的帮助;) 解决方案 一旦你有了相对距离和方位,你可以使用 this page,确定已知坐标相对于已知视点的位置基本上是透视投影,这篇维基百科文章中概述了数学.相机的旋转由指南针给出,倾斜由加速度计给
..
我正在尝试开发自己的增强现实引擎. 在互联网上搜索,我发现这个有用的教程.阅读它,我发现重要的是用户位置、点位置和北方之间的方位. 以下图片来自该教程. 接着,我写了一个Objective-C方法来获取beta: + (float) calculateBetaFrom:(CLLocationCoordinate2D)user to:(CLLocationCoordinate2D
..
目前我正在编写一个增强现实应用程序,但在将对象显示在屏幕上时遇到了一些问题.令我非常沮丧的是,我无法将 gps 点转换为我的 android 设备上的相应屏幕点.我已经阅读了很多关于 stackoverflow 的文章和许多其他帖子(我已经问过类似的问题),但我仍然需要你的帮助. 我做了维基百科中解释的透视投影. 我要如何处理透视投影的结果才能获得最终的屏幕点? 解决方案 前段
..
这是我在 Windows 8 上的 Android Studio 上运行 Vuforia 示例的方法 下载、提取示例、删除文件 .project 和 project.properties 在 Android Studio 上:导入项目,下一个,下一个 ... 下载和安装安卓 NDK http://developer.android.com/tools/sdk/ndk/index.html
..
我正在尝试阅读并理解 Google ARCore 的域模型,尤其是 Android SDK 包.目前此 SDK 处于“预览"模式,因此没有关于如何使用此 API 的教程、博客、文章等.甚至 Google 本身也建议只阅读源代码、源代码注释和 Javadocs 以了解如何使用 API.问题是:如果你还不是计算机视觉专家,领域模型会感觉有点陌生.你不熟悉. 具体来说,我有兴趣了解以下类之间的基本
..
我目前是计算机科学专业的本科生,明年我将进入最后一年.增强现实是我发现的一个非常有趣的话题,但我不知道从哪里开始学习它. 您从哪里开始了解此主题以及可用的库? 解决方案 作为一个非常流行的流行语,增强现实可以使用一些可以单独学习的不同算法来构建.通常包括: 平面对象检测(可以是标记或先前训练的对象).SURF/SIFT/FAST 描述符,RANSAC 用于单应矩阵计算 将经过
..
我在视频(或图像)中有 4 个共面点代表一个四边形(不一定是正方形或矩形),我希望能够在它们的顶部显示一个虚拟立方体,其中立方体的角正好站立在视频四边形的角落. 由于这些点是共面的,我可以计算单位正方形的角(即 [0,0] [0,1] [1,0] [1,1])和四边形的视频坐标之间的单应性. 根据这个单应性,我应该能够计算出正确的相机位姿,即 [R|t],其中 R 是 3x3 旋转矩阵
..
我正在开发 Android 上的基本增强现实应用程序.到目前为止,我所做的是用 opencv 检测一个正方形,然后使用 cvFindExtrinsicCameraParams2() 我计算了一个旋转和平移向量.为此,我使用了 4 个对象点,它们只是 (0,0,0) 周围正方形的角和图像中正方形的 4 个角. 这为我提供了一个非常好的旋转和平移矩阵.我还使用 cvRodrigues2() 计算
..
伙计们, 我正在尝试获取如下图所示的实用程序.基本上,相机显示窗口覆盖了设备屏幕的一部分,并且通过曲线或直线连接的点列表作为覆盖显示在相机视图上.我知道这可以使用石英来绘制,但这还不到我问题的一半. 真正的问题是,随着方位和高度的变化,叠加层应该呈现不同的点. 例如: 如果方位必须改变 +5 度和仰角 +2 度,则 PT1 将靠近相机视图的右边缘,PT2 也会移动右侧,PT
..
有人知道新款 iPhone4 摄像头的视野值吗?我正在做一些AR应用,我想知道后置摄像头的水平和垂直角度. 谢谢! 解决方案 如果传感器是 3.39 毫米高(参考横向模式),那么一半是 1.695 毫米.iPhone 4 的焦距为 3.85 毫米.atan(1.695/3.85) 是从中心到顶部 23.75 度,或从顶部到底部 47.5 度. 对于较长的尺寸 4.52/2 =
..