avcapturesession相关内容
我有一个主视图控制器,它会转向第二个具有avcapturesession的视图控制器。我第一次从主视图控制器切换到捕获会话控制器,大约需要50ms(使用“仪器”检查)。然后我从捕获会话中回到主视图控制器,然后从主控制器返回到avcapturesession控制器。每次从主视图控制器切换到avcapturesession需要更长的时间,并且通过第5或第6次迭代,segue大约需要10秒。 (与第一次
..
我有一个简单的AVCaptureSession,可以在我的应用中获取相机并拍照。如何使用相机的 UIGestureRecognizer 实现“缩放到缩放”功能? 解决方案 接受的答案实际上是过时的,我不确定它是否会实际拍摄放大图像的照片。有一种放大方法,如bcattle的回答说。他回答的问题是它没有掌握用户可以放大然后从该变焦位置重新启动的事实。他的解决方案会创造一些不太优雅的跳跃。
..
我正在编写一个通过网络传输视频和音频的iOS应用。 我正在使用 AVCaptureSession 来抓取原始视频帧使用 AVCaptureVideoDataOutput 并使用使用x264 对其进行编码。这很好用。 我想对音频做同样的事情,只是因为我不需要在音频方面那么多控制所以我想使用内置的硬件编码器产生AAC流。这意味着使用音频转换器来自Audio Toolbox图层。为了做到这一
..
这让我发疯,因为我无法让它发挥作用。我有以下情况: 我正在使用 AVCaptureSession 和 AVCaptureVideoPreviewLayer 创建我自己的相机界面。界面显示一个矩形。以下是填充整个屏幕的 AVCaptureVideoPreviewLayer 。 我希望以某种方式裁剪捕获的图像,结果图像显示在显示屏上的rect中看到的内容。 我的设置如下: _
..
我正在尝试使用新的iOS 7功能实现QRCode扫描程序,但我的代码没有调用主 AVCaptureMetadataOutputObjectsDelegate 方法。 之前我使用过AVFoundation相机并使用我当前的实现我已经预览层运行没有问题。甚至将我的输出切换回 AVCaptureVideoDataOutput 验证我的会话设置。 我正在使用此
..
我正在尝试捕获实时麦克风音频数据。 我从苹果示例中获取了以下内容 AVCaptureSession 。 AVCaptureSession * captureSession = [[AVCaptureSession alloc] init]; AVCaptureDevice * audioCaptureDevice = [AVCaptureDevice defaultDevic
..
我遇到了困难时期,因为我觉得应该很简单。 我只是想在我的iOS应用程序中拍照时点亮闪光灯。我尝试过的所有功能都失败了,或只有20%的功能。 以下是触发闪光灯的代码: //我们在这里:captureDevice.hasFlash&& captureDevice.isFlashModeSupported(.On) do {try captureDevice.lockForConfig
..
我有一个允许用户拍照的视图控制器。我将avcapture边界设置为屏幕上视图的边界。 在此视图上方,我有一个集合视图。因此,用户可以捕获多张图片,然后将它们添加到上面的集合视图中。 我在上面的预览中出现了正确方向的问题。 代码如下: @IBOutlet weak var imagePreviews:UICollectionView! @IBOutlet weak va
..
抓取可视屏幕的裁剪UIImage时,我的AVCaptureVideoPreviewLayer方法出现问题。目前它正在工作,但没有输出我需要的正确裁剪。 我正在尝试输出一个正方形但它(看起来很像)似乎给了全高并压缩图像。 前一图像显示LIVE屏幕,后一图像显示按下捕获按钮后的图像。您可以看到它已垂直更改以适合方形,但高度未垂直裁剪。 捕获图像代码 [stillImageOu
..
我正在制作视频捕捉iOS应用程序,我希望能够录制麦克风的音频,同时允许播放背景音乐。我可以做所有这些,但只要相机的视图进入和退出前景,背景音频就会跳过(暂停)。我已将错误隔离到 AVCaptureSession addInput : AVCaptureSession session = [ [AVCaptureSession alloc] init]; session.automati
..
我创建了一个AVCaptureSession来捕获视频输出并通过UIView将其显示给用户。现在我希望能够单击一个按钮(takePhoto方法)并在UIImageView中显示会话中的图像。我试图迭代每个设备连接并尝试保存输出但是没有用。我的代码在下面 让captureSession = AVCaptureSession() var stillImageOutput:AVCaptureSt
..
默认的iPhone相机应用程序拍摄照片后,会出现预览,并且图像会动画到相机胶卷按钮。我正在尝试复制这个动画。 session = [[AVCaptureSession alloc] init]; session.sessionPreset = AVCaptureSessionPresetPhoto; CALayer * viewLayer = self.vImagePrevie
..
我有一个视频捕捉应用程序,我希望能够在录制音频+视频时播放背景音乐。 如果设置 AVAudioSession 类别 PlayAndRecord in didFinishLaunchingWithOptions 。但是,每当摄像机的视图进入或退出前景时,这都会导致音频出现故障,并且显然无法摆脱: https://forums.developer.apple.com/message/74778#
..
我正在尝试更改相机视图前和返回。它工作正常。如果录制视频没有翻转暂停/记录选项它工作正常。但是如果我们翻转相机视图那么,进一步录制视频未保存导致 AVAssetWriterStatusFailed - 无法完成操作。任何人都可以帮我找到我错的地方吗?以下是我的代码。 Camera.m - (void)flipCamera { NSArray * inputs = _session
..
我使用ZXing作为应用程序,这主要是与ZXing原始代码相同的代码,只是我允许连续扫描几次(即,一旦检测到某些东西,ZXingWidgetController就不会被解雇)。 当我按下解除按钮时,我会遇到长时间冻结(有时它永远不会结束) - (void)已取消{ // if(!self.isStatusBarHidden){ // [[UIApplication shared
..
我想从AVCaptureSession的实时馈送中提取帧,我使用Apple的AVCam作为测试用例。以下是AVCam的链接: https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html I发现 captureOutput:didOutputSampleBuffer:fromConnec
..
我目前正在开发一款iOS应用程序,将CoreImage应用于相机Feed以拍摄照片和视频,而且我遇到了一些麻烦。 到目前为止,我一直在使用 AVCaptureVideoDataOutput 获取样本缓冲区并使用CoreImage对其进行操作,然后显示简单的预览,并使用它来捕获照片并保存它们。 当我尝试实施视频录制时,将我从 AVCaptureVideoDataOutput 收到的视频写
..
当我使用AVCaptureVideoDataOutput和AVCaptureAudioDataOutput录制音频+视频时,我遇到了延迟问题。有时视频会阻塞几毫秒,有时音频与视频不同步。 我插入了一些日志并观察到我首先获得了大量视频缓冲在captureOutput回调中,一段时间后我得到音频缓冲区(有时我根本没有收到音频缓冲区,结果视频没有声音)。如果我评论处理视频缓冲区的代码,我会毫无问题
..
我正在尝试实时测量所选颜色的饱和度,如下所示: 创意http://i62.tinypic.com/2af9zia.png 我正在关注
..
使用来自iOS7教程第22章的 Ray Wenderlich的QRCode阅读器 ,我正在为我当前的应用程序成功阅读QRCodes。我现在扩展它,在成功读取QRCode后,我想存储已读取的 AVMetadataMachineReadableCodeObject 的 stringValue ,segue到一个新的视图,并在新视图上使用这些数据,或多或少准确的大多数QRCode阅读器应用程序(如 Re
..