avfoundation相关内容
我使用AVFoundation框架拍照,并将其保存到photoAlbum: - (void)captureStillImage { AVCaptureConnection *videoConnection = nil; for (AVCaptureConnection *connection in [[self stillImageOutput] connections]
..
我要做什么,我正在尝试将我用AVAudioRecorder录制的音频文件(可能长达一个小时,例如Podcast)上传到我们的后端.除了上载到服务器外,如果用户选择,还需要能够“暂停"和“恢复".因此,我相信,我需要在NSData类上使用dataWithBytesNoCopy:buffer来实现这一目标. 我在哪里,我知道我可以使用传递的self.mediaURL属性来获取数据: if
..
我有一个使用AVFoundation的照相应用程序.到目前为止,一切正常. 但是,令我真正困惑的一件事是,所捕获的图像实际包含在什么对象中? 我一直在NSLogging所有对象及其一些属性,但我仍然无法弄清楚捕获的图像所在的位置. 这是我用于设置捕获会话的代码: self.session =[[AVCaptureSession alloc]init]; [self.s
..
我创建了一个自定义相机,并在下面的代码中实现了对所拍摄图像的裁剪,我在预览层中显示了指南,因此我想对出现在该区域中的图像进行裁剪. func imageByCropToRect(rect:CGRect, scale:Bool) -> UIImage { var rect = rect var scaleFactor: CGFloat = 1.0 if scal
..
我正在尝试播放以下声音: import AVFoundation let sound = URL(fileURLWithPath: Bundle.main.path(forResource: "audiofile", ofType: "wav")!) var audioPlayer = AVAudioPlayer() @IBAction func audio1(_ sender:
..
我正在尝试设置一个AudioQueue,以从iPhone上的麦克风流式传输音频. 我创建我的音频引擎: var audioEngine = AVAudioEngine() 我的音频队列: // Serial dispatch queue used to analyze incoming audio buffers. let analysisQueue = Di
..
我目前正在尝试将音频样本从AVAudioPCMBuffer转换为NSData-我已经看过了来自GitHub的代码,但似乎某些AVFAudio API的内容已更改...以下是我对AVAudioPCMBuffer的扩展名: private extension AVAudioPCMBuffer { func toNSData() -> NSData { let chann
..
我正在尝试实时处理音频数据,以便可以基于从麦克风输入的声音在屏幕上显示频谱分析仪/可视化效果.我正在使用AVFoundation的AVCaptureAudioDataOutputSampleBufferDelegate来捕获音频数据,这将触发代理功能captureOutput.功能如下: func captureOutput(_ output: AVCaptureOutput, didOut
..
我正在尝试在Swift操场上列出使用AVCaptureDevice.devices()连接到我的机器的设备. import Cocoa import Foundation import AVFoundation import CoreMediaIO var prop = CMIOObjectPropertyAddress( mSelector: CMIOObjectProperty
..
我正在尝试在AVPlayerViewController中播放远程MP4视频: self.vcVideo = [[AVPlayerViewController alloc] init]; self.vcVideo.player = [AVPlayer playerWithURL:[NSURL URLWithString:videoURL]]; [self presentViewContro
..
是否可以使用AVFoundation和CoreVideo实时获取颜色信息,光圈和焦距值? 让我解释一下.假设我在拍摄视频时想在屏幕的一小部分采样颜色并将其以RGB值输出到屏幕吗?另外,我想展示一下当前的光圈设置为什么. 有人知道是否有可能收集这些值?目前,我只看到静止图像可以做到这一点. 想法? 解决方案 AVCaptureStillImageOutput将为您提供视频流
..
我有一个NSURL字符串,它们是URL.数组中的每个URL都指向与歌曲的一部分相关联的数据.我可以使用以下代码播放完整的歌曲,该代码会将歌曲完全下载到单个文件,然后从该文件播放: // Get file path to store song locally NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirec
..
我正在玩苹果网站(Xcode项目)上的AVScreenShack示例,该示例捕获桌面并将捕获的内容实时显示在窗口中. 我对项目做了一些修改,并插入了以下代码行: -(void)captureOutput:(AVCaptureOutput*) captureOutput didOutputSampleBuffer:(CMSampleBufferRef) sampleBuffer from
..
我遵循了很多教程,而有关在AVFoundation中进行录制的每个教程都只记录了视频或音频或这两者. 我想在同一时域中录制一些位置,例如在单独的轨道上录制视频/音频.仅使用5个属性(即纬度,经度,海拔高度,开始时间,持续时间)来描述此位置路标,并且记录的5秒不会频繁更改.这段录音仅供演示之用,我需要一些功能,例如流媒体,播放,跳过,暂停. 有人知道如何使用AVFoundation框架吗
..
我有一个.wav格式的简单音频文件(该音频文件被完美剪切以循环播放).我尝试了不同的方法来循环它.我的第一次尝试只是使用AVPlayer和NSNotification来检测audioItem何时结束以寻求零时间并再次播放.但是,显然存在差距. 我一直在在线寻找不同的解决方案,发现人们使用AVQueuePlayer进行切换: 无缝循环AVPlayer 但是,在实施时仍然会产生差距.
..
使用AVFoundation框架,我可以使用以下代码来集中精力: - (void) autoFocusAtPoint:(CGPoint)point{ NSArray *devices = [AVCaptureDevice devices]; for (AVCaptureDevice *device in devices) { [device unlock
..
我正在尝试更改用于收听传入音频的输入设备. 我已经尝试了多种解决方案,但是大多数在准备和启动音频引擎时都会遇到以下错误: AVAEInternal.h:82:_AVAE_CheckAndReturnErr: required condition is false: [AVAudioEngineGraph.mm:1295:Initialize: (IsFormatSampleRateAndCh
..
我正在一个需要录制视频的应用程序上工作,我发现了一个由appcoda编写的帮助程序类,这是指向github repo https://github.com/appcoda/FullScreenCamera ,但是我遇到的问题是它在我运行时就出现了,我在控制台中收到一条错误消息,说noCamerasAvailable我还致力于改进代码,但我只是想不通为什么.这是助手类 class Camera
..
我想重用AVPlayerItem,但继续收到此错误: An AVPlayerItem cannot be associated with more than one instance of AVPlayer 在尝试重用它之前,我像这样破坏先前的AVPlayer: [self.player pause]; [self.player replaceCurrentItemWithPla
..
我的目标是获取视频缓冲区并将其最终转换为NSData,但我不了解如何正确访问该缓冲区.我具有captureOutput函数,但是如果转换缓冲区,则无法成功执行,而且我不确定是否实际上在缓冲区中收集了任何东西.这全都是使用快速代码的,我已经找到了一些使用Objective-C的示例,但是我不能很好地理解Obj-c代码以弄清楚它. var captureDevice : AVCaptureDev
..