arcore相关内容
我参与了一个AR项目(与Unity3D和Arcore),在这个项目中,我们有一个非常大的区域需要跟踪。为此,我们首先开发了一个演示应用程序,运行得非常好。后来开始发展大面积(600米*600米)和30米三角形的多边形数。当我构建应用程序时,场景中的所有资源都变得非常小,实时缩放对象变成了玩具大小。同样的应用在VR中进行得非常顺利。 我想知道AR中是否有多边形数或面积限制?如果是,是否有任何选
..
我正在尝试阅读并理解 Google ARCore 的域模型,尤其是 Android SDK 包.目前此 SDK 处于“预览"模式,因此没有关于如何使用此 API 的教程、博客、文章等.甚至 Google 本身也建议只阅读源代码、源代码注释和 Javadocs 以了解如何使用 API.问题是:如果你还不是计算机视觉专家,领域模型会感觉有点陌生.你不熟悉. 具体来说,我有兴趣了解以下类之间的基本
..
ARCore 相机似乎不支持 takePicture.https://developers.google.com/ar/reference/java/com/google/ar/core/Camera 有人知道我如何使用 ARCore 拍照吗? 解决方案 我假设您的意思是相机所见内容和 AR 对象的图片.在较高级别上,您需要获得写入外部存储以保存图片的权限,从 OpenGL 复制帧,
..
我不知道我是否可以问这个问题,但我真的不知道如何在 Android 模拟设备上使用 ARCore.根据官方指南,我应该在像素/像素 2 设备上使用 API 8.1 以运行任何使用 ARCore 的应用程序.遗憾的是,这些模拟器不支持 Play 商店,如果没有 Play 商店,我无法在设备上安装 ARCore.内置 Play 商店附带的设备图像不能运行 ARCore.我真的很困惑我应该如何以这种方式
..
我想实现类似ARCore 的光线投射方法,它采用世界空间坐标中的任意光线而不是屏幕空间点: ListhitTest (float[] origin3, int originOffset, float[] direction3, int directionOffset) 我看到 ARKit 本身没有那样的方法,但无论如何也许有人有想法! 谢谢. 解决方案 在 Apple Reali
..
问题情况:始终在同一个地方(在桌子上)以舒适的方式创建 AR 可视化.我们不希望客户像在无数 ARCore/ARKit 示例中那样自行放置对象. 我想知道是否有办法实现这些步骤: 检测桌子上的标记 使用标记的位置作为 AR-Visualization 的初始位置并继续进行 SLAM-Tracking 我知道最新版本的 TangoSDK 中包含类似标记检测 API 的内容.但这项
..
ARCore 使用哪些传感器:兼容手机中的单摄像头、双摄像头、IMU 等? 此外,如果传感器无法通过切换到不太准确的自身版本而无法使用,那么 ARCore 是否足够动态以继续工作? 解决方案 更新时间:2021 年 7 月 24 日. 关于 ARCore 和 ARKit 传感器 Google 的 ARCore 以及 Apple 的 ARKit 使用一组类似的传感器来跟踪真
..
我目前正在尝试在 android 中使用 AR,但我得到了 .usdz 格式的模型.到目前为止,我一直在寻找一种方法来将此文件转换为适用于 android 的文件(.fbx .obj .gltf),最好是 .gltf. 谁能告诉我这种转换是否有一些支持? 根据我的研究,支持以相反的方式转换文件,即从 .obj .fbx 到 .unsz. 解决方案 更新时间:2021 年 9 月
..
我是 iOS 和 Android 增强现实游戏开发的初学者.我有以下问题: ARKit for iOS 和 ARCore for Android 分别支持哪些 3D 模型格式?(我试过 .dae 和 .obj 都支持 ARkit,还没有测试 ARCore.) 我们的 3D 模型供应商只能为我们提供 FBX 格式.如何将其转换为 ARKit 和 ARCore 支持的格式?我尝试使用 3D
..
我很想知道,每种基于视觉的移动增强现实框架的优缺点在哪里?在什么情况下应该决定什么?在任何情况下,您是否会选择 Vuforia,因为它是免费且没有品牌的?其中一个框架缺少哪些重要功能?Metaio SDK 的免费版本是否有限制(品牌和 Metaio 启动画面除外)? 我认为这些是支持 iOS 和 Android 的最重要的框架.我知道 metaio 支持电影纹理和 MD2(动画)导出,而 V
..
开箱即用,很明显 ARKit 不允许一次跟踪超过 4 个图像.(您可以“跟踪"更多的标记,但一次只能使用 4 个).见 这个问题 了解更多详情. 但是,我想知道是否有可能的解决方法.像在计时器上添加和删除锚点或获取位置信息然后在没有 ARKit 的情况下显示相应模型等.我对 Swift 的了解相当有限,所以我还没有太多运气进行实验.任何关于正确方向的建议或指示都会有所帮助. 相比之下,
..
我是增强现实领域的初学者,致力于使用智能手机创建建筑平面图(平面图、房间平面图等具有准确测量值)的应用程序.因此,我正在研究可用于此目的的最佳 AR SDK.将 Vuforia 与 ARCore 和 ARKit 进行较量的文章并不多. 请推荐最适合使用的 SDK,以及每种 SDK 的优缺点. 解决方案 更新时间:2021 年 9 月 24 日. TL;DR Google
..
我有一个 ModelRenderable 附加到节点并在 ArFragment 中呈现. 我想以醒目的颜色向用户突出显示此元素 0.5 秒. 我尝试更改材料,但没有成功.渲染冻结而不会引发错误.这是我尝试过的: private void addHighlightToNode(Node node) {CompletableFuturematerialCompletableFuture
..
众所周知,ARCore 几乎取代了项目探戈,但我有一些涉及区域映射的研究项目,因此我对探戈和 ARCore 几乎没有任何疑问. 对于区域映射,tango 比 ARCore 产生更精确、更密集的点云信息,因此如果我想“区域映射",Tango 设备对我来说会更好.对吗? ARCore 和 Tango 的 SDK 是同一个东西,因此对于带有 ARCore SDK 的 Tango 仍然有效地支持其
..
当我按照 Android 快速入门指南构建并运行“Hello Sceneform"和“Solar System"项目时https://developers.google.com/ar/develop/java/quickstart,我在手机(Galaxy S9)上看到的只有 这些移动的灰/黑线,顶部是移动的 ARCore 手/手机. 我可以毫不费力地从商店下载和运行 ARCore 应用程序.
..
是否可以用一条线连接两个标记位置?我有两个位置标记: LocationMarker point1 = new LocationMarker(20.501925,44.792181,new AnnotationRenderer("point1"));位置标记点 2 = 新位置标记(20.502972,44.790873,new AnnotationRenderer("point2")); 有什么
..
我正在尝试使用 ARCore 的 Sceneform 框架来播放基于 chromakeyVideo 示例项目的视频. 在创建模型时: ModelRenderable.builder().setSource(this, R.raw.chroma_key_video).建造().then接受(可渲染 ->{videoRenderable = 可渲染;renderable.getMateria
..
我是 ARCORE 和 Kotlin 的新手,正在尝试一个需要检测墙壁的简单 android-kotlin 应用程序.我知道 Google 使用 PlaneFindingMode.VERTICAL 标签使这成为可能,但我不知道如何使用它. 任何帮助将不胜感激. 解决方案 可能重复这里 但我还是会回答. 此实现可能也适用于 ARCore.但是我用 SceneForm SDK 测试
..
有什么办法可以暂停,或者至少阻止 ARCore 旋转屏幕.我有一个菜单,我用来通过销毁游戏对象并实例化它来在 AR 场景之间“切换",但是当我重新激活菜单时,SessionComponent 继续控制相机,因为它仍在跟踪剩余的锚点.我不知道如何删除锚点,因为它是通过调用 Session.CreateAnchor 创建的,而 Session 似乎没有删除锚点的方法.我假设删除锚点可能是阻止 ARCo
..
在我的应用中,我试图在自定义相机视图中将 ArCore 用作某种“相机助手". 要清楚 - 我想在他的相机中为用户显示图像,并让他捕捉不包含 AR 模型的图像. 据我所知,为了使用 ArCore 捕获图像,我必须使用 Camera2 API,该 API 通过将会话配置为使用“共享相机"来启用. 但是,我似乎无法将相机配置为使用任何高端分辨率(我使用的是像素 3,所以我应该能够达到
..