avcapturesession相关内容
我正在使用AVCaptureSession实现VideoRecorder. 我在以下问题的建议下从viewWillAppear启动AVCaptureSession并在viewWillDisappear上将其拆散 AVCaptureSession在以下情况下失败从后台返回 . 现在,当“正在录制视频"且应用程序进入后台时,我想停止录制并暂停捕获会话.但是,每当此应用程序出现在前台时,我都会得到以
..
关于类似问题,这里有一些讨论.就像这一样,但它们似乎已经过时了,所以我想我想问一下. 我想从Swift 2.0的摄像头中获取接近实时的RGB像素值,甚至更好的是全图像RGB直方图.我希望它尽可能快且最新(理想情况下约为30 fps或更高) 我可以直接从AVCaptureVideoPreviewLayer获取此图像吗?还是需要捕获每个帧(如果处理需要花费大量时间,我认为是异步的),然后从
..
我有一个有效的条形码扫描仪代码.当我单击openCamera按钮时,第一次一切都很好.当我单击closeCamera按钮时,很好,但是如果再次单击openCamera按钮,则会出现致命错误.代码和错误如下.实际上,是否可以通过一个按钮切换摄像机视图? // Barcode Camera Properties let captureSession = AVCaptureSession() va
..
我正在尝试创建一个应用程序,可以在录制过程中从设备上的不同摄像机录制视频. 例如.用户从前置摄像头按下按钮“开始录制",录制5秒钟后,用户按下“切换摄像头"按钮,应用程序将视频源从前置摄像头切换到后置摄像头,并继续录制. 对于摄像机切换,我使用下一个代码: NSError *error; AVCaptureDeviceInput *newVideoInput; AVCaptureDevice
..
我正在尝试使用AVFoundation在我的iPhone应用程序中录制视频. 但是每当我单击“记录"按钮时,应用程序都会崩溃并显示此消息 -[AVCaptureMovieFileOutput startRecordingToOutputFileURL:recordingDelegate:]-未启用/已启用 连接. 我知道在SO中提出了相同的问题,但没有一个答案对我有帮助. 我的问题是相
..
我正在与AVCaptureSession一起捕获图像.工作正常 但没有给出好的分辨率.我将它与iPhone相机捕获的图像进行了比较,发现iPhone相机图像比AVCaptureSession图像要好得多. 我在stackOverflow上看到了3-4个链接,但是找不到任何解决方案. 我也尝试了所有预设 AVCaptureSessionPresetPhoto, AVCapture
..
我必须使用我的c ++函数处理iPhone相机捕获的帧.因此,我使用startRunning()函数开始数据流,但是我可以用什么方式处理每一帧? 解决方案 是的,这很简单.您需要 创建一个AVCaptureVideoDataOutput对象以生成视频帧 为AVCaptureVideoDataOutput对象实现委托以处理视频帧 在委托类中,实现方法( 有关更多信息,您可以
..
我是AVCaptureSession的新手,希望更好地了解如何使用它. 因此,我设法将视频流捕获为单独的CIImages,并将其转换为UIImages. 现在,我希望能够捕获每秒的帧数,并且最好能够进行设置. 有什么想法吗? 解决方案 您可以使用AVCaptureConnection的videoMinFrameDuration访问器来设置值. 请参见 AVCaptureConn
..
我正在调用AVFoundation的委托方法来处理照片捕获,但是我很难将其生成的AVCapturePhoto转换为具有正确方向的UIImage.尽管下面的例程成功了,但我总是得到面向右的UIImage(UIImage.imageOrientation = 3).使用UIImage(data: image)时,我无法提供方向信息,尝试首先使用photo.cgImageRepresentation()
..
我正在使用Swift构建QR码扫描器,并且在这方面一切正常.我遇到的问题是,我试图使整个可见的AVCaptureVideoPreviewLayer中只有一小部分能够扫描QR码.我发现,为了指定屏幕的哪个区域将能够读取/捕获QR码,我必须使用称为rectOfInterest的AVCaptureMetadataOutput属性.问题是,当我将其分配给CGRect时,无法进行任何扫描.在网上进行了更多研
..
在查看了以下问题之后: AVAudioSession AVAudioSessionCategoryPlayAndRecord故障,我试图阻止试图正常播放背景音乐的视频录制.录制开始时和录制结束时,我都为音频故障做好了准备,并且在第一次录制时效果很好.但是,如果我尝试再次录制,音乐将停止. 有什么想法吗? 这是我的代码的片段: captureSession = AVCapt
..
我试图在视图控制器中运行AVCaptureSession,但在同一控制器中,我还从使用AVAudioSession的库中调用了一个函数.我似乎无法从调试器中获取太多信息,除了它在我调用此特定库的函数时完全崩溃时.该库为libpd: https://github.com/libpd ,它将AVAudioSession称为sharedInstance.我称libpd为: [self.
..
我正在使用AVCaptureSession来使用视频和音频输入,并使用AVAssetWriter编码H.264视频. 如果我不写音频,则视频将按预期进行编码.但是,如果我编写音频,则会收到损坏的视频. 如果我检查提供给AVAssetWriter的音频CMSampleBuffer,则会显示以下信息: invalid = NO dataReady = YES makeDataRead
..
很抱歉,如果这是重复的,但是我找不到类似的问题.我有一个使用AVFoundation制作的自定义摄像机/录像机,我想知道如何在录制视频的同时保持其他应用程序的音频运行,因为现在它会停止音频(甚至不暂停它),然后录制视频 如果我的想法正确,是否可以通过添加类似于以下内容的方法来解决此问题: [[AVAudioSession sharedInstance] setCategory:AVA
..
我正在尝试使用AVAssetWriter进行屏幕录制,该软件也接受音频输入.但是,我一直停留在此错误上,在appendSampleBuffer:(在encodeAudioFrame:内)几次调用后,有时AVAssetWriter变为AVAssetWriterStatusFailed Failed: Error Domain=AVFoundationErrorDomain Code=-1180
..
我正在尝试实现一个具有屏幕录制功能的简单macOS应用. 我不想记录麦克风输入,而是要记录Mac扬声器发出的声音.示例:通过这种方式,我希望能够将YouTube视频录制到文件中. AVCaptureSession是否可能? Googling展示了捕获视频和麦克风的示例,而不捕获内部音频. 这是捕获视频和麦克风所必须的工作代码.我必须进行哪些修改才能禁用麦克风并获得扬声器内部PC的
..
我正在关注 教程 ,并试图将代码从Swift 2.0转换为3.0.但是,当我启动该应用程序时,该应用程序无法运行!我的意思是,什么都没有发生!这是我的代码: ViewController: class ViewController: UIViewController ,BarcodeDelegate { override func prepare(for segue: UIS
..
这是一个将CMSampleBuffer转换为UIImage的函数(Apple文档中的代码) func imageFromSampleBuffer(sampleBuffer: CMSampleBuffer) -> UIImage { // Get a CMSampleBuffer's Core Video image buffer for the media data var
..
我正在尝试执行CMSampleBuffer的深层克隆以存储AVCaptureSession的输出.运行函数CMSampleBufferCreateForImageBuffer时收到错误kCMSampleBufferError_InvalidMediaFormat (OSStatus -12743).我看不到如何错配CVImageBuffer和CMSampleBuffer格式说明.有人知道我哪里出问
..
我正在开发与Instagram iOS应用类似的应用. Instagram具有自定义的相机预览.我想开发类似的东西,问题是-为此目的最好使用什么-具有自定义cameraOverlayView属性的UIImagePickerController还是应该使用AVCaptureSession?也许有人有这样的经验,可以给我建议.将不胜感激. 解决方案 AVCaptureSession比UIIma
..