arcore相关内容
我正在使用AR Android应用,当我接近可渲染对象时,我想将AR视频流的颜色设为黑白,当然,除了可渲染对象之外.我搜索了文档,但发现我无法访问视频流来执行此操作,如有人知道如何做到这一点吗? 解决方案 要从ARCore获取视频流,需要将纹理绘制到正在捕获的 OpenGL 3.1上下文中.您可以找到捕获视频流后,将颜色video/image转换为灰度级(红色,绿色和蓝色的平均值)的最简单
..
我正在尝试创建一个按钮,该按钮将在选定场景后从场景中删除3d模型. 我知道删除3d对象的方法是使用anchor.detach().而且我可以使用node.select()选择单个模型.但是,我不确定选择节点后如何访问锚点. FloatingActionButton fab = (FloatingActionButton) findViewById(R.id.fab);
..
我知道在SO上也有一些类似的问题,但这对我不起作用... 我创建了使用ArCore的Android库.这是一个关于SO的问题,如果使用创建的ndk lib,如何不包含.so文件?还有一个听起来不错的答案 https://stackoverflow.com/a/58963852/5709159 但是在将libarcore.so文件放在jniLib 下之后 我遇到了这样的错误
..
我尝试如下页所述运行arcore示例以实现统一: https://developers.google.com/ar/develop/unity/quickstart-android 但是它不起作用.该应用程序启动,正在搜索飞机,但相机源为黑色.在logcat中,存在以下异常: DllNotFoundException: arcore_unity_api at (wrapper
..
在导入Sceneform Asset时出现此错误:Gradle构建因新的导入规则而失败.您要还原更改吗?并且选项包括“还原"和“不间断的gradle更改". 还会弹出错误消息: 错误:java.lang.RuntimeException:java.lang.NoSuchMethodError:com.android.tools.idea.templates.recipe.RecipeE
..
我试图将一个物体放在脸上.但是不了解如何设置对象的深度. 就像我在脸上添加3D对象(如斑点帧)时一样. 它未显示在中正确的深度. 解决方案 使用因此,如果您想将眼镜放置在适当的深度,请以与在标准蒙版上设置的方式相同的方式设置3D对象的枢轴点.换句话说–嫁给这些关键点.
..
我正在使用ARCore的Sceneform开发一个项目.我基于ARCore提供的HelloSceneform示例进行开发. 我想做的是按点击添加可渲染对象,然后在单击屏幕上的特定可渲染对象时将其删除. 我已经尝试过如下方法AnchorNode.setOnTapListener,但是它没有用(无响应): anchorNode.setOnTapListener(new Node.OnTapLis
..
我正在做一个项目,并且遇到ARCore问题.我在项目中使用了 ARCore位置,我使用纬度和经度设置了对象的位置.但是当我在设备中看到它时,对象位置在AR中会有所不同. CompletableFuture exampleLayout = ViewRenderable.builder() .setView(this, R.
..
是什么使受 ARCore 支持的设备支持ARCore? 哪些功能使该设备支持ArCore? ARCore设备和其他不受支持的设备有什么区别? 解决方案 发生的事情不是关于手机的更新,但如果该手机进行了一些测试和确定 >设计和建造的时间. 这是什么意思,您今天的手机需要一些硬件,例如: 加速度计:测量加速度,即速度变化除以时间.简而言之,它是速度变化的量度.加速力可以是静态/连续
..
我希望学习和投入大量时间来构建3D增强现实应用程序,因为它们正在缓慢但必将成为人机交互的未来. 我想学习ARCore,但它只能在数量有限的全新手机上运行,由于价格原因,我目前无法进行测试.我对ARCore没什么疑问 与其他流行框架相比,ARCore性能如何?它是否将大量资源用于简单的操作,例如运动检测,跟踪和平面检测? 是否需要在此处所述的知识并使用OpenGL? ?它仅仅是绘制
..
我正在尝试播放声音,然后当两个对象使用Sceneform碰撞时破坏它们.我看到Sceneform具有碰撞API( https://developers.google.com/ar/reference/java/com/google/ar/sceneform/collision/package-summary ),但我不知道如何在碰撞时采取行动.我尝试扩展碰撞形状,覆盖shapeIntersecti
..
我的用例是: 在屏幕上点击并保存“点".作为开始锚点 第二次点击屏幕并保存“点".作为末端锚点 按下将对象从锚点开始移动到末端的按钮 我已经建立了自己的节点,该节点使用的是ObjectAnimator,类似于太阳系示例.我唯一的问题是我不知道如何确定评估者的起点和终点.我的第一个想法是从起始和结束锚点的姿势中提取x,y,z Vector3 start = new Vector
..
是否可以在24小时后访问Cloud Anchors和/或重新激活功能点? 解决方案 Google ARCore Cloud Anchor Service 中的"nofollow noreferrer“> Cloud Anchors 会在24小时后失效. 目前,仍无法在24小时后访问Cloud Anchors. 7天后,点云也将被丢弃.可以将自己的托管服务用于Cloud Anchors
..
我使用 ARKit 应用/developer.apple.com/documentation/scenekit"rel =" nofollow noreferrer“> SceneKit框架.我想将其带到 ARCore ,但是使用直接OpenGL似乎令人生畏. 是否有适用于Android开发人员的高级场景图框架(如SceneKit)可以帮助导入和渲染3D模型? 解决方案 ViroCo
..
我想在检测到图像时在相框中播放视频,有人使用ARCore这样做吗?会很有帮助的 谢谢 解决方案 我认为您的意思是要在检测到图像的情况下将视频作为可渲染的图像添加到ARCore中. (在撰写本文时)实际上存在一个包含在Sceneform中的示例,该示例显示了如何将视频添加为可渲染的视频-可在此处获得: https://github.com/google-ar/sceneform-
..
我正在使用ARCore构建我的android应用,允许用户放置锚点.我需要能够检查锚点是否在当前帧中. 知道我该怎么做吗? 谢谢! 解决方案 如果您使用的是ARCore,则可能正在执行平截头体剔除,即不渲染不在可见空间内的对象,这是一种优化方法阻止您进行gl调用以渲染场景中的“不可见"元素. 如果在渲染器计算出对象后可以访问对象,则可以使用该值. 另一种方法是,抓住相机并获取视
..
HitResult似乎仅使我们与曲面(平面)或点云相交.如何通过单击来在空中找到一点,从而使物体漂浮在空中? 解决方案 这实际上取决于您“空中"的意思.我看到了两种可能性: “在检测到的表面上方" 对平面执行正常的命中测试,并将返回的姿态偏移一些Y距离以获得悬停位置.例如: Pose.makeTranslation(0, 0.5f, 0).compose(hitResult.g
..
我正在尝试遵循以下指南,了解如何为我的模型也位于0 x,y和z轴上. 对于代码,我使用的是此示例项目由Google提供: 解决方案 检查模型的pivot point的位置. 3D模型的枢轴必须接近增强面中使用的Google face mesh的枢轴. 有两种纠正方法: 修复枢轴在3D应用程序(Maya,3dsMax或Blender)中的位置 为与增广的Faces API配
..
我了解ARCore尚不支持步行等3D动画,但是如何为Node的旋转设置动画? 我知道我可以设置LocalRotation或WorldRotation,但是如何使这种动画以流畅的方式连续播放呢? 解决方案 最简单的方法是使用 Android属性动画.例如,在Sceneform示例“太阳能系统"中.看看首先,它创建一个 ObjectAnimator ,该对象使用LinearInterpo
..
首次发布. 我正在尝试保存运行时创建的增强图像数据库,以供以后的会话中使用.我环顾四周,但未发现与此相关的任何问题. 先谢谢了. EDIT 应该已经提到,我正在使用Unity(对不起,我是新手). 解决方案 您可以使用序列化功能来创建字节数组或输出流,具体取决于您使用的是Android还是Android NDK. 对于NDK: void ArAugmented
..