arcore相关内容
关于我想在 AR 应用程序中使用的 3D 模型(带场景形式),我有一个新手问题.模型本身是 .fbx 格式,我有 5 个纹理或贴图(作为 .jpg 文件)用于不透明度、金属、粗糙度、基色和法线.导入 .fbx 模型有效,但我不知道如何为其分配纹理.根据文档(https://developers.google.com/ar/develop/java/sceneform/custom-material
..
我正在创建一个基本示例并收到这 2 个错误. import androidx.appcompat.app.AppCompatActivity;导入 android.os.Bundle;导入android.net.Uri;导入 android.view.Gravity;导入 android.view.MotionEvent;导入 android.widget.ImageButton;导入 andr
..
我想将arcore的深度信息保存到存储中.这是开发者指南中的示例. public int getMillimetersDepth(Image depthImage, int x, int y) {//深度图像有一个平面,每个平面存储深度//像素为 16 位无符号整数.Image.Plane 平面 = depthImage.getPlanes()[0];int byteIndex = x * p
..
ArCoreApk 检查可用性在 API 级别 29 及以下返回 true,但在 30 时返回 false.有任何想法吗? fun checkArCoreAvailability(context: Context) {var 消息:字符串?= 空var isArCoreInstalled = false尝试 {当 (ArCoreApk.getInstance().checkAvailabilit
..
我想用 Unity 构建一个简单的 ARcore 应用程序.所以我遵循了 ARCore Unity 快速入门文档,但是当我尝试构建APK,出现这个错误: "清单合并失败,出现多个错误,请参阅日志.有关详细信息,请参阅控制台." 所以日志报告了以下问题 我在互联网上搜索过,似乎找不到明确的答案.我错过了什么?提前致谢. 解决方案 请参阅 关于 ARCore XR 插件 统一
..
我正在使用 ARcore 进行一个项目. 我需要一个在 ARcore 相机上可见的真实世界屏幕,以前使用擦除 UI 和捕获的方法. 但是太慢了以至于我在 Arcore API 中找到了 Frame.CameraImage.Texture 它在 Unity Editor 环境中正常工作. 但是如果您在手机上构建它并检查它,Texture 为空. Texture2D snap
..
我是颤振的新手.我正在使用谷歌提供的 AR 核心.但我在编译时收到此错误: flutter.pub-cache\hosted\pub.dartlang.org\arcore_flutter_plugin-0.0.10\android\src\main\kotlin\com\difrancescogianmarco\arcore_flutter_plugin\ArCoreView.kt: (2
..
我尝试按照以下页面中的描述运行 arcore 示例以实现统一:https://developers.google.com/ar/develop/unity/quickstart-android 但它不起作用.应用程序启动并正在搜索飞机,但相机输入为黑色.在logcat中有以下异常: DllNotFoundException:arcore_unity_apiat (wrapper manag
..
我正在开发 AR Android 应用程序,当我接近可渲染对象时,我想将 AR 视频流的颜色设为黑白,当然可渲染对象除外.我搜索了文档,但我无法访问视频流来执行此操作,如 探索 AR 交互(Google I/O '18). 有谁知道如何做到这一点? 解决方案 要从 ARCore 获取视频流,需要将纹理绘制到正在捕获的 OpenGL 3.1 上下文 中.你可以找到 此处如何操作.
..
我想弄清楚如何修改示例 ARCore 场景中的 HelloARController.cs 以将对象直接放置在相机前面.我的想法是,我们正在从摄像机向锚点或跟踪平面上的 Vector3 进行光线投射,所以我们不能获取该光线起点的 Vector3 并在该点或该点附近放置一个对象吗? 我尝试了很多,虽然我有点初学者,但我想出了这个 根据我的理解,ScreenToWorldPoint 应该输出
..
ArCoreApk 检查可用性在 API 级别 29 及以下返回 true,但在 30 时返回 false.有任何想法吗? fun checkArCoreAvailability(context: Context) {var 消息:字符串?= 空var isArCoreInstalled = false尝试 {当 (ArCoreApk.getInstance().checkAvailabilit
..
我正在尝试制作一个按钮,可以在选择后从场景中删除 3d 模型. 我知道删除 3d 对象的方法是使用 anchor.detach().我可以使用 node.select() 选择单个模型.但是,我不确定如何在选择节点后访问锚点. FloatingActionButton fab = (FloatingActionButton) findViewById(R.id.fab);fab.setOn
..
我在导入 Sceneform Asset 时收到此错误:Gradle 构建失败,使用新的导入规则.您要还原更改吗?选项是 Revert 和 Keepbroken gradle changes. 还会弹出错误消息: 错误:java.lang.RuntimeException:java.lang.NoSuchMethodError:com.android.tools.idea.templa
..
如何移除 ARCore 中所有检测到的平面并重新开始检测它们?这甚至可能吗?我在 Google 和 Stackoverflow 上使用 arcore remove/delete all plane 进行搜索,但没有发现任何有用的东西. /编辑:我希望在启动版本检查后让 ARCore 处于相同状态,显示灰色的手部运动动画并且没有检测到平面(因此必须先删除它们)并且 ARCore 正在尝试检测新
..
我试图将一个物体放在脸上.但不明白如何在对象中设置深度. 就像我在脸上添加 3d 对象(如眼镜框)一样. 它不显示 正确的深度. 解决方案 当你使用 Augmented Faces 功能,值得注意的是,如果检测到任何人脸,ARCore 首先会放置一个 Face Anchor(必须位于鼻子后面,或者更准确地说,位于头骨内部),其次ARCore 放置了一个规范掩码——它的枢轴点与锚
..
我正在使用 hello ar java 演示在 3d 对象上使用模板蒙版,但是我遇到了一些意外行为.我的模板蒙版正确地遮挡了平面渲染器,但 3d 对象(andy)似乎没有按预期做出反应.相反,他似乎被翻转了,如图所示.我不知道如何解决这个问题.附件是做模板屏蔽的代码片段 模板图像在平面缓冲区上正常工作但在 3d 模型上失败 GLES20.glClear ( GLES20.GL_STE
..
我是 Android 版 Sceneform sdk 的新手.我添加了一个 Transformable Node ,然后我应用了一些旋转、缩放并改变了它的位置.现在单击按钮,我需要放置具有相同旋转、缩放和位置的第二个节点. 为此,我所做的是: 节点 nodeTwo = new Node();//第二个节点nodeTwo.setLocalPosition(nodeOne);nodeTwo.
..
我正在尝试跟踪面部表情,例如扬眉、微笑、眨眼等.在 ARKit 中,我可以使用 blendShapes (https://developer.apple.com/documentation/arkit/arfaceanchor/2928251-blendshapes) 检测面部不同部位的运动,但在 ARCore 中尚不存在. 我尝试访问与脸部中心变换相关的网格顶点,但这些顶点会随着脸部的旋转
..
我正在尝试使用 ARCore 从我的 ARSession 的当前帧中获取位图.但它始终等于 null.我已经在网上搜索了一段时间,但无法弄清楚我做错了什么. 尝试{捕获的图像 = mFrame.acquireCameraImage();ByteBuffer 缓冲区 = captureImage.getPlanes()[0].getBuffer();byte[] bytes = new byte[
..
Unity SDK 包附带的 ARCore AugmentedImage 示例应用程序在示例 AugmentedImageDatabase 中包含的示例图像周围放置了一个图片框.如果找到它们,它将在场景中的多个图像周围放置一个相框,并且只有在跟踪完全丢失时才会销毁相框. 假设您只想在最近识别的图像周围显示一个相框 - 并从前一个图像中删除该相框?检查给定图像的 TrackingState 无
..