arscnview相关内容
我正在尝试选择一个放置在检测到的平面上的对象,以便对其执行各种任务,例如通过手势旋转. 为了搜索放置的对象并避免获得无关性质的 hitTestResults(例如选择平面或 ARWorldMap 本身),我尝试将 hitTest(_:options:) 与 SCNHitTestOption.categoryBitMask 一起使用.然而,似乎 hitTest 返回所有类型的结果,而不仅仅是具
..
我有一个简单的 Swift ARKit 设置,其中我有一个 SCNNode,其中有一个在 ARSCNView 中可见的 3D 对象. 我想确定这个对象在 ARSCNView 上的二维坐标.我的意思是对象被绘制到屏幕上时的 x 和 y 坐标. 我提供了一个草图来说明我的意思: 有没有办法获得这些坐标,或者至少是一个近似值?我需要这个以便对相机框架进行一些进一步的处理.基本上我对物体
..
我正在使用 ARKit 来显示 3D 对象.我设法将节点放置在用户(也就是相机)面前的现实世界中.但是当我放下它们时,我无法让它们面对相机. let tap_point=CGPoint(x: x, y: y)让结果=arscn_view.hitTest(tap_point,类型:.estimatedHorizontalPlane)守卫 results.count>0 else{返回}守卫让
..
我想对我现有的 AR 应用做一些修改,我想拆分视图并添加到 2 个 ARSCNView 中,这样用户就可以使用 VR Card Box 并有不同的体验但 Xcode 总是让我回来: Session (0x102617d10): 失败,错误:Error Domain=com.apple.arkit.error Code=102“所需的传感器失败." 所以,我假设我不能同时运行 2 个 ARSCN
..
我有一个运行 ARSession 的 ARSCNView.您可以使用 session.pause() 暂停会话,当然,但这仍然有效,使会话继续运行.我尝试通过从其超级视图中删除它来解除分配 ARSCNView.ARSCNView 确实解除分配,但 ARSession 之后仍在运行!您也不能将 nil 分配给 ARSession.我可以看到 ARSessionDelegate 的 func ses
..
我尝试向 ARSCNView 的相机图像添加黑白滤镜,然后在其上渲染彩色 AR 对象. 我快到了,在 - (void)renderer:(id)aRenderer updateAtTime:(NSTimeInterval)time 的开头添加了以下代码 CVPixelBufferRef bg=self.sceneView.session.current
..
我想对我现有的 AR 应用做一些修改,我想拆分视图并添加到 2 个 ARSCNView 中,这样用户就可以使用 VR Card Box 并有不同的体验但 Xcode 总是让我回来: Session (0x102617d10): 确实失败,错误:Error Domain=com.apple.arkit.error Code=102“所需的传感器失败." 所以,我假设我不能同时运行 2 个 ARS
..
我试图选择一个放置在检测到的平面上的对象,以便对其执行各种任务,例如通过手势旋转. 为了搜索放置的对象并避免获得不相关性质的hitTestResults(例如,选择飞机或ARWorldMap本身),我试图将hitTest(_:options :)与SCNHitTestOption.categoryBitMask一起使用.但是,尽管按我的理解,categoryBitMask是“仅搜索匹配指定位
..
我当时想对现有的AR应用程序进行一些修改,因此我想拆分视图并在2个内部添加ARSCNView,这样用户可以使用VR Card Box并获得不同的体验,但是Xcode总是会返回我: Session (0x102617d10): did fail with error: Error Domain=com.apple.arkit.error Code=102 "Required sensor fa
..
我将SCNNode添加到ARSCNView: func renderer(_ renderer: SCNSceneRenderer, nodeFor anchor: ARAnchor) -> SCNNode? { guard let faceAnchor = anchor as? ARFaceAnchor else { return nil } guard let device =
..
我有一个简单的Swift ARKit设置,其中有一个带有3D对象的SCNNode,该对象在ARSCNView中可见. 我想确定该对象在ARSCNView上的2D坐标.我的意思是指将对象绘制到屏幕上时的x和y坐标. 我提供了一个草图来说明我的意思: 有没有办法获得这些坐标,或者至少是一个近似值?我需要这样做,以便对相机框架做进一步的处理.基本上,我对对象在屏幕上占据的区域感兴趣.
..
我有一个运行ARSession的ARSCNView.您可以使用session.pause()暂停会话,但是仍然有效,它将使会话继续运行.我尝试通过从其超级视图中删除ARSCNView来解除分配. ARSCNView确实已取消分配,但ARSession之后仍在运行!!您也不能将nil分配给ARSession.我可以看到ARSessionDelegate的 func session(_ sess
..
我尝试在ARSCNView的摄像机图像中添加黑白滤镜,然后在其上渲染彩色的AR对象. 我快到了,在- (void)renderer:(id)aRenderer updateAtTime:(NSTimeInterval)time 的开头添加了以下代码 CVPixelBufferRef bg=self.sceneView.session.currentFr
..
我正在使用 ARKit 来显示3D对象。我设法将节点放在用户面前的现实世界(也就是相机)。但是当我放下相机时,我无法让它们面对镜头。 让tap_point = CGPoint(x:x,y:y) let results = arscn_view.hitTest(tap_point,类型:.estimatedHorizontalPlane) guard results.count> 0
..