avcapturedevice相关内容
我正在构建一个UIView,它有一个覆盖的盒子,最终目标是让二维码读取器仅在二维码落入盒子内时触发。我知道我需要将.rectOfInterest()设置为与黄色框相同,但在当前实现中(下面的代码),阅读器无法工作。 public override init(frame: CGRect) { super.init(frame: frame) if let captureDev
..
我想知道是否可以使用 AVFoundation 框架同时从两个摄像头捕获.具体来说,我的问题是前后 AVCaptureDevices 是否可以同时处于活动状态. 目前我知道一个 AVCaptureSession 实例只能支持一个输入(和输出).我创建了两个 AVCaptureSession,将前置摄像头设备连接到一个,将后置摄像头设备连接到另一个,然后将会话的输出指向不同的 SampleBu
..
想不出来这个.当应用程序处于活动状态时一切正常,而 有时 当我将应用程序移动到后台(按下主页按钮)而不是返回时,预览层会冻结/卡住.我使用 viewWillAppear 和 viewDidAppear 进行设置.这就是我设置一切的方式: var backCamera = AVCaptureDevice.devicesWithMediaType(AVMediaTypeVideo)var glob
..
在 Apple 的 iOS 6.0 功能页面上,它曾经说 利用内置摄像头的高级功能.新的 API 让您可以控制焦点、曝光和感兴趣区域.您还可以通过人脸检测 API 访问和显示人脸,并利用支持硬件的视频稳定功能. 此文本已被删除,我在 API 中找不到用于控制曝光的新方法.在“曝光设置"下的 AVCaptureDevice 类中,没有适用于 iOS 6.0 的新属性/方法.你知道我在哪里
..
我知道在 iPhone 4 上开启闪光灯并保持开启的唯一方法是打开摄像机.虽然我不太确定代码.这是我正在尝试的: -(IBAction)turnTorchOn {AVCaptureSession *captureSession = [[AVCaptureSession alloc] init];AVCaptureDevice *videoCaptureDevice = [AVCaptureDev
..
我正在尝试构建一个应用程序,该应用程序将以摄像头捕获帧并使用OpenCV处理这些帧,然后再将这些文件以特定帧速率保存到设备中. 我目前遇到的问题是 AVCaptureVideoDataOutputSampleBufferDelegate 似乎不尊重 AVCaptureDevice.activeVideoMinFrameDuration 或 AVCaptureDevice.activeVide
..
我开发了iOS应用,它使用相机。 AVCaptureDeviceInput用于连接摄像机。 我将授权状态检查为 -(void)checkDeviceAuthorizationStatus { NSString * mediaType = AVMediaTypeVideo; [AVCaptureDevice requestAccessForMediaType:mediaType
..
最近几天,我一直在试图找出AVCapture,并且正在努力保存视频。我的理解是,您调用 [movieFileOutput startRecordingToOutputFileURL:outputURL recordingDelegate:self]; ,然后稍后再调用 [movieFileOutput stopRecording]; 然后应调用委托方法-(void)captureOutput:(A
..
当应用程序在后台运行时,是否可以进行手电筒照明? 我要这样做是为了打开它: AVCaptureSession * session = [AVCaptureSession new]; AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; [sessi
..
下面是相机部分的代码,我尝试添加一个布尔值来检测何时激活前置摄像头,但收到错误消息。 import UIKit import AVFoundation 类MainCameraCollectionViewCell:UICollectionViewCell { @IBOutlet弱var myView :UIView! var captureSession = AVCaptureS
..
使用Xcode 10.1和Swift 4.2 我有一个使用 UINavigationController 在 AppDelegate 中实现。 navigationController的rootViewController是 DashboardController()类( UIViewController ) DashboardController 使用多个ViewControl
..
今天,我第一次为 Mac 编码。我想做的是访问默认相机并显示预览。第二步,如果需要,我将记录或快速拍摄。对于第一步,我编写了以下代码 import可可 import AVFoundation 类ViewController:NSViewController { 覆盖func viewDidLoad(){ super.viewDidLoad() var session:AVCaptu
..
我的ViewDidAppear中有所有这些代码 captureSession = AVCaptureSession() //让backCamera = AVCaptureDevice.defaultDeviceWithMediaType(AVMediaTypeVideo) var captureDevice:AVCaptureDevice! = nil if(camera
..
我正在使用麦克风进行视频捕获的iOS应用程序上工作。当我们尝试捕获视频时,它会请求麦克风许可并在此之后立即崩溃。我们收到以下错误: “由于未捕获的异常'NSInvalidArgumentException'而终止应用程序,原因:-[AVCaptureDevice setActiveColorSpace:] 不支持-使用 activeFormat.supportedColorSpaces “
..
我试图在后台查看视频/摄像机,同时我也允许我的应用中的触觉反馈以执行各种操作,但是似乎AVFoundation在我所进行的任何通话中都表现不佳触觉调用: 如果#available(iOS 10.0,*){ let generator = UIImpactFeedbackGenerator (样式:.light) generator.prepare() generator.impac
..
我设法找到了一些可以使我访问手机设备(例如相机)的代码。问题是,当我使用Xcode编译代码(并打印不同的设备)时,我得到一个空数组。 这是我写的: import UIKit import AVFoundation class ViewController:UIViewController { let captureSession = AVCaptureSession
..
我正在创建一个应用程序,其中用户用文字拍摄图像图片并上传到服务器。我已经使用 AVCaptureSession 打开相机,并放置了一个条形按钮,该按钮可捕获最新的帧并将其上载到服务器。在此应用程序中,用户可以通过单击“条形图”按钮将多个图像一张一张地发送到服务器。 我想知道是否有可能用户不必按捕获帧的按钮。是否可以通过自动对焦自动捕获当前帧?就像用户只是将相机放在图像上一秒钟,然后在图像聚焦
..
我正在使用 AVCaptureDevice.setTorchModeOn(level)方法以可变的亮度打开手电筒。 在我的旧版iPhone SE上,它工作正常-当我将级别从 0 更改后,我可以清楚地看到4种不同的亮度级别到 1 。 但是在iPhone 11 Pro上,手电筒仅在 1.0 !而且,如果远离最大水平(与Control Center的手电筒相比),则为亮度。 我尝试使用
..
我已设置我的应用程序,以使用AVCaptureSession记录来自摄像机的视频,但是其中没有音频。我需要做什么来记录音频,然后将其添加到文件的videoOutput中?这是我录制视频的代码: AVCaptureSession * session = [[AVCaptureSession alloc] init]; [session beginConfiguration]; ses
..
在iOS上录制视频的更简单方法是设置 AVCaptureSession.sessionPreset 。 但这对我不起作用,因为我想控制合并等参数,稳定(电影,标准或无)和ISO。 我找到了想要的格式并将其分配给 activeFormat ,但是当我尝试开始记录时,出现错误: 由于未捕获的异常'NSInvalidArgumentException'而终止应用程序,原因: '***-
..