augmented-reality相关内容
我有一个应用程序,它在图像/照片的顶部定义了一个真实世界的矩形,当然在 2D 中它可能不是矩形,因为您是从某个角度看它的. 问题是,假设矩形需要在其上绘制网格线,例如如果它是 3x5,那么我需要从 1 边到 3 边绘制 2 条线,从 2 边到 4 边绘制 4 条线. 现在我将每条线分成等距的部分,以获得所有网格线的起点和终点.然而,矩形的角度越大,这些线就越“不正确",因为离你越远的水
..
我无法在 SceneKit 中显示一些纹理,这是我想使用的模型: Sketchfab 中的模型:https://skfb.ly/6QVTQ 模型应该使用 Scene Kit 以这些颜色和纹理出现在 AR 环境中.但是金色的尖端看起来是黑色的,透明镜片根本没有出现.有什么建议可以解决这个问题吗? 模型为.scn格式.这是模型材料属性:https://drive.google.com
..
我在导入 FBX 模型时遇到问题.我已经用 Unity 完成了,所以我知道模型可以很好地导出,但我也应该使用本机代码.我收到错误: 2015-06-02 15:20:21.721 ARAppNFTOSG[746:481003] 错误:不支持的模型文件类型 (fbx).无视. 我正在名为 ARAppNFTOSG 的 AR 示例上尝试它.我将model.dat更改为: 1OSG/Geralt/w
..
我在 Blender 中练习动画,所以我下载了一个汽车的 .dae 文件并为它实现了一些动画.我想让汽车打开和关闭车门,我设法做到了(向其插入关键帧). 问题是当我把它导出到.dae 文件 ->导出 ->DAE 并导入,查看动画是否保存: 文件 ->导入 ->DAE 但它没有做任何事情. 有什么方法可以将动画导出并查看为 .dae 文件?* 附言我希望将其导出为 .dae
..
我无法在 SceneKit 中显示一些纹理,这是我想使用的模型: Sketchfab 中的模型:https://skfb.ly/6QVTQ 模型应该使用 Scene Kit 以这些颜色和纹理出现在 AR 环境中.但是金色的尖端看起来是黑色的,透明镜片根本没有出现.有什么建议可以解决这个问题吗? 模型为.scn格式.这是模型材料属性:https://drive.google.com
..
我正在开展一个项目,该项目将在一个片段中包含一个 3D 模型查看器.为了做到这一点,我决定使用场景形式.我在我的选项卡片段中尝试显示 SceneView 后遇到了问题. 一切都是根据示例和场景形式文档完成的,但是 sceneView 显示黑屏,无论我指定的颜色如何. 这里是场景加载器 @Override公共视图 onCreateView(LayoutInflater inflate
..
我正在使用 OpenCV Viz 和 ARUCO 开发一个简单的基于标记的增强现实应用程序.我只想在标记上可视化一个 3D 对象(以 PLY 格式). 我可以毫无问题地使用 ARUCO 运行标记检测和姿态估计(返回旋转和平移向量).我可以在可视化窗口中可视化任何 3D 对象(PLY 格式)和相机帧.但是,我坚持使用来自 ARUCO 的旋转和平移矢量输出来定位标记上的 3D 模型. 我正
..
假设我有一组 5 个标记.我正在尝试使用增强现实框架(例如 ARToolkit)找到每个标记之间的相对距离.在我的相机中,前 20 帧仅向我显示前 2 个标记,以便我可以计算出 2 个标记之间的转换.第二个 20 帧仅显示第二个和第三个标记,依此类推.最后 20 帧向我展示了第 5 个和第 1 个标记.我想构建所有 5 个标记的标记位置的 3D 地图. 我的问题是,知道由于视频源的质量低而导
..
实际上我想将两个子对象相互连接,这样当一个对象的大小增加时,两个对象应该一起移动并改变其位置.我想在预制件中做到这一点可以吗? 这是层次结构截图: 基本上我想增加玻璃的大小(side1_screen1 的子对象),但随着玻璃的增加,我的支持(子对象)的大小也在增加. 但是当我单独增加玻璃尺寸时,我的支撑位置不会改变,所以当玻璃尺寸增加时可以使用的任何方法,我的支撑尺寸都不应该增加
..
我想在 x,y,z 米 wrt 相机上增强一个虚拟对象.OpenCV 具有相机校准功能,但我不明白我究竟能以米为单位给出坐标 我尝试在 Unity 中模拟相机,但没有得到预期的结果. 我如下设置投影矩阵,并在 z = 2.415 + 0.5 处创建一个单位立方体.其中 2.415 是眼睛和投影平面之间的距离(针孔相机模型)既然立方体的面在前剪裁平面并且它的尺寸是单位,它不应该覆盖整个视
..
我已阅读所有关于 ARKit 的 Apple 指南,并观看了WWDC 视频.但我无法理解绑定到的坐标系如何: 真实世界 一个设备 3D 场景 相互连接. 我可以添加一个对象,例如一个SCNPlane: let stripe = SCNPlane(width: 0.005, height: 0.1)让 stripeNode = SCNNode(geometry: stripe
..
我使用 iPhone X 和 ARFaceKit 来捕捉用户的面部.目标是使用用户的图像对面部网格进行纹理化. 我只查看 AR 会话中的单个框架(ARFrame).从 ARFaceGeometry,我有一组描述人脸的顶点.我对当前帧的 capturedImage 进行 jpeg 表示. 然后我想找到将创建的 jpeg 映射到网格顶点的纹理坐标.我想: 将顶点从模型空间映射到世界空
..
我正在使用 ARKit 收集面部网格 3D 顶点.我已阅读:将图像映射到 3D 面部网格和跟踪和可视化人脸. 我有以下结构: struct CaptureData {var 顶点:[SIMD3]var verticesformatted:字符串{let verticesDescribed = vertices.map({ "\($0.x):\($0.y):\($0.z)" }).join
..
我有一个应用程序,它在图像/照片的顶部定义了一个真实世界的矩形,当然在 2D 中它可能不是矩形,因为您是从某个角度看它的. 问题是,假设矩形需要在其上绘制网格线,例如如果它是 3x5,那么我需要从 1 边到 3 边绘制 2 条线,从 2 边到 4 边绘制 4 条线. 现在我将每条线分成等距的部分,以获得所有网格线的起点和终点.然而,矩形的角度越大,这些线就越“不正确",因为离你越远的水
..
谁能给我一些有关如何在 Android Studio 中安装 Vuforia 的说明?我正在制作一个新应用程序,我需要在 Vuforia 中使用增强现实.希望你能帮我! 非常感谢! 解决方案 您需要按照以下步骤操作: 阅读我们的入门指南,了解有关设置Java SDK、Android SDK 和 NDK: https://developer.vuforia.com/down
..
我不知道我是否可以问这个问题,但我真的不知道如何在 Android 模拟设备上使用 ARCore.根据官方指南,我应该在像素/像素 2 设备上使用 API 8.1 以运行任何使用 ARCore 的应用程序.遗憾的是,这些模拟器不支持 Play 商店,如果没有 Play 商店,我无法在设备上安装 ARCore.内置 Play 商店附带的设备图像不能运行 ARCore.我真的很困惑我应该如何以这种方式
..
这是我在 Window 8 上的 Android Studio 上运行 Vuforia 示例的方法 下载、提取示例、删除文件 .project 和 project.properties 在 Android Studio 上:导入项目,下一步,下一步... 下载&安装安卓 NDK http://developer.android.com/tools/sdk/ndk/index.html
..
我正在使用 SceneKit 和 ARKit.我用一系列表情符号制作了一个 collectionView.现在我希望用户能够从 collectionView 中选择表情符号,当他/她触摸屏幕时,所选表情符号将被放置在 3D 中. 我该怎么做?我想我必须为Node创建一个函数,但我的想法仍然很模糊,我也不是很清楚. 解决方案 只要表情符号是 2D 元素,最好使用 SpriteKit 框
..
使用 ARKit 进行面部跟踪,一旦检测到面部,我就会得到 faceAnchor (ARFaceAnchor),它提供了一个 simd_float4x4 矩阵.我了解转换矩阵,并且也知道该主题已部分解决(此处:如何从objective-c 中的simd_float4 获取值,这里:simd_float4x4 Columns),但是有没有一种直接的方法可以从面锚获取偏航/俯仰/旋转值?(为了在下面的
..
ARCoachingOverlayVew 有 4 种目标类型:horizontalPlane、verticalPlane、anyPlane 和 tracking>. 但是 Reality Composer 有 5 种类型的锚点: 显然,前两个是为了当水平 当我跟踪Image 或Face 时,我应该在什么模式下调整ARCoachingOverlayVew?horizonta
..