avfoundation相关内容
我已经进行了 吨 的研究,但由于多种原因,我还没有找到可行的解决方案,我将在下面概述. 问题 在我的 iOS 应用中,我希望三个视图无限期地显示设备相机的延迟实时预览. 例如,视图 1 将显示相机视图,延迟 5 秒,视图 2 将显示相同的相机视图,延迟 20 秒,视图 3 将显示相同的相机视图,延迟 30 秒. 这将用于记录自己进行某种活动,例如锻炼,然后在几秒钟后观察自己
..
我想知道是否可以使用 AVFoundation 框架同时从两个摄像头捕获.具体来说,我的问题是前后 AVCaptureDevices 是否可以同时处于活动状态. 目前我知道一个 AVCaptureSession 实例只能支持一个输入(和输出).我创建了两个 AVCaptureSession,将前置摄像头设备连接到一个,将后置摄像头设备连接到另一个,然后将会话的输出指向不同的 SampleBu
..
我正在编写一个 iPhone 应用程序,它从摄像头获取视频,通过一些 OpenGL 着色器代码运行它,然后使用 AVFoundation 将输出写入视频文件.该应用程序以横向(任一)方向运行,因此录制的所有视频都应为横向. 我在开始录制之前使用的当前代码来正确获取视频是: [[self videoWriterInput] setTransform:CGAffineTransformScal
..
我正在捕获视频并将其转换为 CGImage 以对其进行处理.它将工作约 10 秒,获得内存警告然后崩溃(通常它表示数据格式化程序暂时不可用).有人可以帮我解决问题吗? - (void) captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromC
..
我正在尝试构建 UIImagePickerController 的替代品,使用 AVCaptureSession 和 AVCaptureDeviceInput和AVCaptureStillImageOutput,分别作为输入/输出. 要预览我正在使用的相机流 AVCaptureVideoPreviewLayer. 它现在可以像默认相机一样正常拍摄和存储照片. 但是,我发现了 3
..
我正在尝试创建一个相机应用程序,它或多或少会像默认相机应用程序一样工作.目前对我不起作用的事情是点击聚焦.我希望相机聚焦并在我的触摸点上做任何事情,就像真正的相机应用一样. 这是我的 viewDidLoad - (void)viewDidLoad{[超级视图DidLoad];//会议_session = [[AVCaptureSession alloc] init];_session.se
..
用于快速使用相机的 API 似乎有所不同,我很难将相机聚焦在一个点上.当用户点击屏幕时,我希望相机聚焦在该点上 这是我的代码: func focusCamera(point:CGPoint){var screenRect:CGRect = boundsvar focusX = Float(point.x/screenRect.width)var focusY = Float(point.
..
所以这是我的问题.我正在尝试创建一个包含 UIImageView 和 UIButton 的屏幕.当用户按下按钮时,相机应用程序打开,您拍照,如果您在相机应用程序中按“使用照片",您将返回到我的应用程序屏幕,照片放置在我之前提到的 UIImageView 中. 到目前为止发生的情况是,当我按下“使用照片"按钮时,图像已正确放置在我的 UIImageView 中,但随后应用程序崩溃并出现以下错误
..
我需要通过相机捕捉图像.但它给出了以下错误:'NSInvalidArgumentException',原因:'无法直接实例化 AVCaptureDevice.' 按照代码: var session: AVCaptureSession!变种设备:AVCaptureDevice!var captureVideoPreviewLayer: AVCaptureVideoPreviewLayer!
..
我正在使用标准 AVFoundation 类来捕获视频并显示预览 (http://developer.apple.com/library/ios/#qa/qa1702/_index.html) 这是我的代码: - (void)setupCaptureSession {NSError *error = nil;[self setCaptureSession: [[AVCaptureSessi
..
在 Xcode 中设置前置摄像头.我怎样才能做到这一点?在 Xcode 中设置前置摄像头. AVCaptureSession *session = [AVCaptureSession new];if ([[UIDevice currentDevice] userInterfaceIdiom] == UIUserInterfaceIdiomPhone)[会话 setSessionPreset:AV
..
我正在尝试使用新的 AVFoundation 框架用 iPhone 拍摄静态照片. 按下按钮调用此方法.我可以听到快门声,但看不到日志输出.如果我多次调用此方法,相机预览将冻结. 有没有关于如何使用 captureStillImageAsynchronouslyFromConnection 的教程? [[self stillImageOutput] captureStillImage
..
我正在使用 AVFoundation 类从摄像头捕获实时视频流并处理视频样本.这很好用.但是,一旦完成,我确实无法正确释放 AVFoundation 实例(捕获会话、预览层、输入和输出). 当我不再需要会话和所有关联对象时,我会停止捕获会话并释放它.这在大多数情况下都有效.但是,有时应用程序会因调度队列(以及处理视频样本的位置)创建的第二个线程中引发的 EXEC_BAD_ACCESS 信号而
..
我一直在努力让 AVFoundation 相机以正确的方向(即设备方向)捕捉图片,但我无法让它工作. 我看过教程,我看过 WWDC 演示文稿,我已经下载了 WWDC 示例程序,但即使这样也没有用. 我应用的代码是... AVCaptureConnection *videoConnection = [CameraVC connectionWithMediaType:AVMediaTyp
..
我正在尝试通过 AVFoundation 在相机实时预览期间捕获图像 captureStillImageAsynchronouslyFromConnection.到目前为止,该程序按预期工作.但是,如何使快门声音静音? 解决方案 我曾经用这段代码来捕捉iOS默认的快门声音(这里是声音文件名列表https://github.com/TUNER88/iOSSystemSoundsLibrary
..
当我的 iOS 应用程序处于后台模式时,我无法让 iOS 7 AVSpeechSynthesizer 工作.我在应用支持的后台模式中添加了“应用播放音频"键,但我仍然无法让它工作. 我还研究了使用 AVSpeechSynthesizer 语句创建 AVMutableCompositionTrack 的可能性,然后以某种方式与能够在后台运行的播放器一起播放- 但没有运气. 在后台使用 A
..
我知道如果我在前台开始录音会话,并在功能 -> 背景模式中激活音频、Airplay 和画中画;即使在后台,我也可以继续录制,但前提是我在前台开始录制会话,然后进入后台. 我的问题是我想从后台开始录音会话,这可能看起来很黑,而不是 Apple 想要的,但用例是这样的: 我有一个带按钮的蓝牙 LE 设备和一个 iOS 应用程序.这两个是配对的(蓝牙 LE 设备和运行 iOS 应用的 iPh
..
所以这是我的问题.我正在尝试创建一个屏幕,其中有一个 UIImageView 和一个 UIButton.当用户按下按钮时,相机应用程序打开,您拍照,如果您在相机应用程序中按“使用照片",您将返回到我的应用程序的屏幕,并将照片放置在我之前提到的 UIImageView 中. 到目前为止发生的情况是,当我按下“使用照片"按钮时,图像正确放置在我的 UIImageView 中,但随后应用程序崩溃并出现
..
我想从我的麦克风中读取缓冲区到一个数组中,44.1khz 可以正常工作,但是采样率为 8khz 时会出错 错误:>avae>AVAudioIONodeImpl.mm:884: SetOutputFormat: 所需条件为 false: format.sampleRate == hwFormat.sampleRate2016-11-26 19:32:40.674 Atem[5800:1168274
..
我正在尝试使用以下代码生成声音.一切都很好,没有错误.但是当我执行这段代码时,没有声音.我该如何解决这个问题? 顺便说一下,我正在使用这个例子:http://www.tmroyal.com/playing-sounds-in-swift-audioengine.html var ae:AVAudioEnginevar 播放器:AVAudioPlayerNode?var 混音器:AVAudi
..