avcapturesession相关内容
我的故事板里有一个带有几个UIButton的视图控制器。其中一个激活子图层中显示的AVFoundation相机预览图层: captureVideoPreviewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:session]; captureVideoPreviewLayer.frame = self.view.b
..
我已经做了很多工作来解决它,比如添加MPVolumeView,有人说系统卷HUD 会隐藏,如果你在当前添加一个MPVolumeView实例,但是不起作用 我添加观察者来观察音量的变化,然后拍照 但现在我迷失了如何隐藏音量HUD 我曾尝试过添加MPVolumeView实例的解决方案 但不会工作 请给我另一种解决方法 任何建议都将不胜感激。 解决方案 你需要像这样
..
当我开始录制视频时,我正试图播放苹果要求的“嘟嘟”声。我已经通过SO和其他来源发现,当你的音频输入没有一些配置时你就无法发出声音。 这是我对配置方法的尝试: private void SetupAudio() { beepSound = AssetBank.GetSystemSoundWav(“video_record”,“ video_beep“); AudioSessio
..
当我按“myButton”时,我正在尝试捕获图像并将其保存到变量中。我该怎么办? 我的代码如下: 进口的UIKit 进口AVFoundation 进口MobileCoreServices 类的ViewController:UIViewController的{ 让captureSession = AVCaptureSession() 变种previewLayer:AVCap
..
我正在开发视频流应用程序,其中我需要捕获前置摄像头视频帧然后编码然后转移到另一端,典型的流程是这样的 AVCaptureSession - > AVCaptureDeviceInput - > AVCaptureVideoDataOutput - >捕获帧 - >编码帧 - >发送帧到另一端, 它工作正常,我已经设置了 kCVPixelFormatType_420YpCbCr8BiPl
..
我正在关注这个问题的唯一答案 - 使用avcapturesession切换相机 然而,cameraWithPosition似乎不起作用。已弃用? //获取新输入 AVCaptureDevice * newCamera = nil; if(((AVCaptureDeviceInput *)currentCameraInput).device.position == AVCa
..
我已经实现了以下代码,根据 UIInterfaceOrientation 更改 AVCaptureVideoSession 的方向: - (AVCaptureVideoOrientation)interfaceOrientationToVideoOrientation:(UIInterfaceOrientation)orientation { switch(orientation){
..
我正在尝试录制视频(不显示相机)并保存。但正在保存的视频并未以正确的方向保存。我已经尝试强制UIViewController成为一个特定的方向,但这没有帮助。所有视频都以纵向录制。我的代码如下: session = [[AVCaptureSession alloc] init]; [session beginConfiguration]; session.sessionPreset
..
我有两个视图控制器。一个是根VC,包含UI界面,如记录按钮。在这个视图控制器上,我还在索引0处显示另一个VC的视图。该视图包含AVCaptureVideoPreviewLayer。 我希望我的摄像机模仿Apple摄像机应用程序,界面布局随旋转调整,但视频预览图层不调整。你可以看到股票视频应用程序中的录制计时器(UILabel)如何消失,并根据方向重新出现在顶部。 任何想法如何做到这一点
..
我正在阅读本教程从iPhone相机获取像素数据。 虽然我没有运行和使用此代码的问题,但我需要获取相机数据的输出(来自BGRA) )并将其转换为ARGB,以便我可以将它与外部库一起使用。我该怎么做? 解决方案 如果您使用的是iOS 5.0,可以在Accelerate框架中使用vImage来执行NEON优化的颜色组件交换使用如下代码(来自Apple的 WebCore源代码): v
..
我正在使用会话预设 AVCaptureSessionPreset640x480 使用 AVCaptureSession 录制视频。我在非标准尺寸(300 x 300)中使用 AVCaptureVideoPreviewLayer ,在录制时将重力设置为纵横填充。它的设置如下: self.previewLayer = [[AVCaptureVideoPreviewLayer alloc] in
..
我正在尝试创建一个可以录制音频和视频的iOS应用,同时将音频输出到扬声器。 要进行录制和预览,我' m使用 AVCaptureSession , AVCaptureConnection 分别用于视频和音频,以及 AVAssetWriterInput 每个视频和音频。我基本上通过遵循RosyWriter示例代码实现了这一点。 在以这种方式设置录制之前,我使用的是 AVAudioPlaye
..
我正在使用相机视频输入进行一些图像处理,并希望优化最快的快门速度。我知道您可以手动设置曝光时间和ISO使用 setExposureModeCustomWithDuration:ISO:completionHandler: 但这需要手动设置两个值。是否有方法或巧妙的技巧允许您手动设置曝光率,但有ISO句柄本身试图正确曝光图像? 解决方案 我不确定这个解决方案是否是最好
..
我使用AVCaptureSession 创建了相机。我为照片和视频录制模式配置了。 相机和应用程序运行正常。此外,我允许背景音乐播放 (如果用户在iPhone中使用音乐应用播放歌曲) ,同时打开相机或录制视频。它也工作正常。 (附图2) 我允许在此代码的帮助下播放背景音乐 AVAudioSession * session1 = [AVAudioSession sharedIns
..
我正试图在iPhone 5s上以最高分辨率(AVCaptureSessionPresetPhoto)拍摄多张照片。我尝试使用以下代码: dispatch_semaphore_t sync = dispatch_semaphore_create(0); while([self isBurstModeEnabled] == YES) { [stillImageOutput captur
..
我想使用 AVCaptureSession 录制带有音频的视频。为此,我需要AudioSessionCategory AVAudioSessionCategoryPlayAndRecord ,因为我的应用程序还播放带声音的视频。 我希望从默认扬声器中听到音频,我希望它能与其他音频混音。所以我需要选项 AVAudioSessionCategoryOptionDefaultToSpeaker |
..
现在我正在使用 RTMPStreamPublisher 在wowzaserver上发布视频。它正在成功上传,但有人能告诉我如何在上传到服务器时在iPhone上存储相同的视频吗? 我正在使用 https://github.com/slavavdovichenko/MediaLibDemos ,但没有太多文档可用。如果我可以存储发送的数据,那么我的工作就会成功。 这是他们用来上传流的方法,
..
首先,我想讨论 Snapchat 中发生的情况。 当你开始录制视频并且歌曲在后台运行时,在Snapchat中;它允许在录制视频时继续播放该歌曲,在录制该视频后,您还可以在后台听到该歌曲。 我正在使用 SCRecorder 用于使用我的自定义布局录制视频和捕获图像。现在,我想做的就像上面的场景,但问题是每当我开始录制背景歌曲中的视频停止播放时。 SCRecorder正在使用 AVC
..
我想使用iOS 7的新条码扫描功能和 UIImage ,而不是从设备的相机中实时捕捉。我已经通过 AVCaptureDeviceInput 对检测进行了正常工作。 我认为这样做的最好方法是创建一个 AVCaptureInput 的具体子类,它从 UIImage UIImage AVCaptureSession 提供媒体数据。但是,我找不到任何关于如何子类 AVCaptureInput 的文档
..
我有一个使用AV Foundation的照片应用。我使用AVCaptureVideoPreviewLayer设置了一个预览图层,它占据了屏幕的上半部分。因此,当用户尝试拍照时,他们只能看到屏幕的上半部分看到的内容。 这很有用,但是当用户真正拍摄时照片,我尝试将照片设置为图层的内容,图像失真。我做了研究并意识到我需要裁剪图像。 我想做的就是裁剪完整的拍摄图像,这样剩下的就是用户最初可以在
..