arcore相关内容
我知道在 SO 上有一些类似的问题,但它对我不起作用... 我创建了使用 ArCore 的 Android 库.这是一个关于 SO 如何不包含 .so 文件的问题,如果我使用创建的 ndk lib?还有一个答案听起来很对 https://stackoverflow.com/a/58963852/5709159 但是在我将 libarcore.so 文件放在我的 jniLib 下之
..
我正在使用 ARCore 的 Sceneform 进行一个项目.我基于 ARCore 提供的 HelloSceneform 示例开发它.我想要做的是通过点击添加一个可渲染对象,然后当我单击屏幕上的特定可渲染对象时将其删除.我试过方法 AnchorNode.setOnTapListener 如下,但它没有工作(无响应): anchorNode.setOnTapListener(new Node.O
..
我正在使用 Sceneform 创建一个播放动画的 Android 应用程序.我正在尝试使用 AnimatorSet 依次启动多个 Animator.该代码在尝试播放两个动画时运行良好,但每当我添加第三个动画时,前两个动画都会播放,然后应用程序崩溃. 这是一段代码: ListanimatorList = new ArrayList();AnimationData ad1 = JimRen
..
我希望学习并投入大量时间来构建 3D 增强现实应用,因为它们正在缓慢但肯定地成为人机交互的未来. 我想学习 ARCore,但它只能在数量有限的全新手机上运行,由于价格原因,我暂时无法进行测试.我有几个关于 ARCore 的问题 与其他流行框架相比,ARCore 的性能如何?它是否使用大量资源进行简单的操作,例如运动检测、跟踪和平面检测? 此处是否需要了解和使用 OpenGL?它只
..
我想实现类似ARCore 的光线投射方法,它采用世界空间坐标中的任意光线而不是屏幕空间点: ListhitTest (float[] origin3, int originOffset, float[] direction3, int directionOffset) 我看到 ARKit 本身没有那样的方法,但无论如何也许有人有想法! 谢谢. 解决方案 在 Apple Reali
..
是什么让 ARCore 支持的设备支持 ARCore?哪些功能使该设备支持 ArCore?ARCore 设备和其他不支持的设备有什么区别? 解决方案 发生的事情不是关于手机有多新,但如果这个手机有一些测试和措施 设计和建造时. 含义,您今天的手机需要一些硬件,例如: 加速度计:测量加速度,即速度的变化除以时间.简而言之,它是速度变化的量度.加速力可以是静态的/连续的(如重力),
..
是否可以在 24 小时后访问 Cloud Anchors 和/或重新激活功能点? 解决方案 根据 Google 文档: 在 ARCore 1.20 及更高版本中,云锚点可以在托管后 365 天得到解决.在 1.20 之前的 ARCore 版本中,云锚点只能在托管后 24 小时内解析. 如果您使用的是 ARCore 1.12 ... ARCore 1.19 – 24 小时后仍然无
..
我正在使用 ARCore 创建一个应用程序以在空白表面上显示一些图像.我想捕获显示对象的那个表面的图像.我在 AR 相机屏幕上放置了一个捕获按钮. 是否可以使用 ARCore 相机中的对象捕捉该视图? 解决方案 如果您只需要 ARCore 视图的屏幕截图,您可以尝试使用一些 Android 功能,例如 PixelCopy.request(view, bitmap, (copyResu
..
我在 Sceneform ARFragment 的垂直平面上添加图像.但它总是会旋转.该代码在水平面上运行良好.我在垂直平面上放置图像的代码如下: arFragment.setOnTapArPlaneListener { hitResult: HitResult,飞机:飞机,运动事件:运动事件 ->如果(!isOnceTapedOnSurface){val 锚点 = hitResult.crea
..
我的用例是: 点击屏幕并保存“点"作为起始锚 第二次点击屏幕并保存“点".作为端锚 按下按钮将对象从开始锚点移动到结束锚点 我已经构建了自己的节点,该节点使用类似于太阳系示例中的 ObjectAnimator.我唯一的问题是我不知道如何确定评估者的起点和终点.我的第一个想法是从开始和结束锚点的姿势中获取 x,y,z Vector3 start = new Vector3(star
..
我已经被这个问题困扰了一个多月了.我只需要在人们使用 AR 应用时录制视频源. 有几个选项: 1.在 Unity 中为每一帧截图. 我尝试了 每帧截图.这太慢了.fps 仅为 5. 然后我尝试保存纹理到一个数组,然后将它们编码为图像. 这会占用大量内存,并且会导致手机出现明显的掉帧.fps在10左右. 如果有人对此方法有什么好主意,请告诉我. 2.使用原生插件录制视频.
..
我目前正在使用 ARCore 对图像进行分类并将对象放在图像上.但似乎 ARCore 相机没有提供任何获取像素缓冲区的方法.然后我遇到了如何使用 ARCore 用相机拍照根据这一点,我们可以使用 GLES20.glReadPixels 从 OpenGL 复制帧.如果我一次传递每一帧,我的分类器工作正常,但是当我将 GLES20.glReadPixels 放在单独的线程中以获取像素缓冲区时,我得到的
..
我想在检测到图像时在相框中播放视频,有人用 ARCore 做过吗?会有很大帮助 谢谢 解决方案 我想您的意思是您想在 ARCore 中添加视频作为可渲染对象,在您检测到图像的情况下. 实际上(在撰写本文时)Sceneform 中包含一个示例,展示了如何将视频添加为可渲染的 - 可在此处获得:https://github.com/google-ar/sceneform-andro
..
我正在通过 Kotlin 设置一个 android 应用程序,我想获得 arcore 的图像分数. 在此页面上,他们说: 运行 arcoreimg eval-img 以获得 0 到 100 之间的每个图像的质量分数. 我刚刚找到了一个适用于 Linux、macOS、Windows 的程序来解压 arcore-android-sdk-1.11.0. 我想通过我的 Androi
..
我正在使用 ARCore 进行增强现实项目.每次启动应用程序时,ARCore 的坐标系都会发生变化,以初始位置为原点.我在另一个坐标系中有 5 个点,我可以使用 ARCore 增强图像在 Unity 世界空间中找到其中 4 个位置.当然,这些点在我的其他坐标系中具有不同的值.我必须使用其在其他坐标系中的位置在 Unity 世界空间中找到第 5 个点的位置. 我已按照此教程来实现此目的.但由于
..
我正在尝试在 NDK_BUILD 中构建“arcore 相机实用程序"库,这里:https://github.com/google-ar/arcore-unity-sdk/tree/master/Assets/GoogleARCore/Examples/ComputerVision/Plugins/src 使用本指南:https://yeephycho.github.io/2016/10/2
..
我在这里找到了如何以本机方式执行此操作的答案,但我正在运行 Unity. 如何使用 ARCore 使用相机拍照 我不确定如何访问 Unity 表面渲染器线程以便能够放入这些函数. 这看起来是一个好的开始.想法? 编辑: 使用 Texture2d ReadPixels 或 ScreenCapture.CaptureScrenshot 不可行,因为它们会阻塞渲染线程.下面
..
第一次发帖. 我正在尝试保存在运行时创建的增强图像数据库,以便在以后的会话中使用.我环顾四周,但没有发现与此相关的问题. 提前致谢. EDIT 应该提到过,我正在使用 Unity(抱歉,我是新手). 解决方案 您可以使用 serialize 函数创建字节数组或输出流,具体取决于您使用的是 Android 还是 Android NDK. 对于 NDK: void A
..
我正在处理一个项目,但遇到了 ARCore 问题.我在我的项目中使用了 ARCore Location,我使用纬度和经度设置了对象的位置.但是当我在设备中看到它时,对象位置在 AR 中有所不同. CompletableFutureexampleLayout = ViewRenderable.builder().setView(this, R.layout.example_layout).建造()
..
假设我有来自 ArFragment 的命中结果的三个锚点. Anchor anchor = hitResult.createAnchor(); 如何使用 Sceneform 绘制三角形并应用自定义纹理? 解决方案 第一步是创建一个AnchorNode的列表,以便能够获取Anchor s.我们会将它们全部添加到列表中: private final ListanchorsList
..