avcapturesession相关内容
我正在尝试通过iphone录制延时录像.我已经可以以120 fps的速度(通过捕获最大可能的帧数)来慢动作工作. 现在,我正在尝试反转逻辑以捕获可能的最少帧,以实现延时功能. 代码流是这样的: 从AVCaptureDevice的可用设备格式中查询所有受支持的帧范围. 检查帧频是否低于或等于所需的20 fps,尺寸是否等于或大于1920 * 1080. 一切正常,除了当
..
用例::我想捕获来自摄像机的输入,在捕获的帧(和声音)上方绘制,并将结果另存为.mov文件. 我看到我可以使用AVCaptureSession捕获摄像机的输入. 我可以使用AVCaptureMovieFileOutput将其保存到.mov文件. AVVideoComposition可用于添加Core Animation进行播放.我想也可以录制吗? 问题:在将输入保存到文件之前,我看
..
我正在使用苹果公司制造的 AVCam 用于我的自定义相机视图.老实说,如果您第一次看到它,要了解AVCamViewController类中发生的事情并不是简单的事情. 现在我很感兴趣他们如何设置捕获图像的帧.我试图找到一些名利二传手或类似的东西,但我还没有找到. 我在Google中进行了搜索,并在 AVCam不在全屏模式中找到答案 但是当我实施该解决方案时,我才意识到它只是使实时
..
我正在尝试使用AVCaptureAudioDataOutput分析音频输入,如此处所述.我自己无法弄清楚这些内容,因此我正在复制示例,但遇到了困难. Swift 3中的Xcode提示我进行一些更改.分配samples的行出现编译错误. Xcode说:“无法为类型为'(UnsafeMutableRawPointer?)的参数列表的类型为'UnsafeMutablePointer的初始
..
我正在尝试使用AVCaptureDevice等编译并运行的实时音量级别,但这些值似乎是随机的,并且我还会不断出现溢出错误. 编辑: RMS范围在0到20000左右也正常吗? if let audioCaptureDevice : AVCaptureDevice = AVCaptureDevice.defaultDeviceWithMediaType(AVMediaTy
..
我正在尝试将mi app升级到Swift 4,但条形码读取器无法正常工作. 我隔离了条形码读取器代码,但仍然无法正常工作.相机可以工作,但无法检测到条形码. 该代码在Swift 3 iOS 10上运行良好. 这是完整的代码 import AVFoundation import UIKit class ViewController: UIViewController, AV
..
我开发了iOS应用,它使用相机。 AVCaptureDeviceInput用于连接摄像机。 我将授权状态检查为 -(void)checkDeviceAuthorizationStatus { NSString * mediaType = AVMediaTypeVideo; [AVCaptureDevice requestAccessForMediaType:mediaType
..
最近几天,我一直在试图找出AVCapture,并且正在努力保存视频。我的理解是,您调用 [movieFileOutput startRecordingToOutputFileURL:outputURL recordingDelegate:self]; ,然后稍后再调用 [movieFileOutput stopRecording]; 然后应调用委托方法-(void)captureOutput:(A
..
当应用程序在后台运行时,是否可以进行手电筒照明? 我要这样做是为了打开它: AVCaptureSession * session = [AVCaptureSession new]; AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; [sessi
..
下面是相机部分的代码,我尝试添加一个布尔值来检测何时激活前置摄像头,但收到错误消息。 import UIKit import AVFoundation 类MainCameraCollectionViewCell:UICollectionViewCell { @IBOutlet弱var myView :UIView! var captureSession = AVCaptureS
..
我设法找到了一些可以使我访问手机设备(例如相机)的代码。问题是,当我使用Xcode编译代码(并打印不同的设备)时,我得到一个空数组。 这是我写的: import UIKit import AVFoundation class ViewController:UIViewController { let captureSession = AVCaptureSession
..
我正在创建一个应用程序,其中用户用文字拍摄图像图片并上传到服务器。我已经使用 AVCaptureSession 打开相机,并放置了一个条形按钮,该按钮可捕获最新的帧并将其上载到服务器。在此应用程序中,用户可以通过单击“条形图”按钮将多个图像一张一张地发送到服务器。 我想知道是否有可能用户不必按捕获帧的按钮。是否可以通过自动对焦自动捕获当前帧?就像用户只是将相机放在图像上一秒钟,然后在图像聚焦
..
我已设置我的应用程序,以使用AVCaptureSession记录来自摄像机的视频,但是其中没有音频。我需要做什么来记录音频,然后将其添加到文件的videoOutput中?这是我录制视频的代码: AVCaptureSession * session = [[AVCaptureSession alloc] init]; [session beginConfiguration]; ses
..
在iOS上录制视频的更简单方法是设置 AVCaptureSession.sessionPreset 。 但这对我不起作用,因为我想控制合并等参数,稳定(电影,标准或无)和ISO。 我找到了想要的格式并将其分配给 activeFormat ,但是当我尝试开始记录时,出现错误: 由于未捕获的异常'NSInvalidArgumentException'而终止应用程序,原因: '***-
..
我正在玩Swift和iPhone 7 Plus。 我正在使用builtInWideAngleCamera和builtInTelephotoCamera。即使我无法同时获取2张图像,这也很棒。 我在Apple文档中看到AVCaptureDeviceType包含一个builtInDualCamera条目。该设备的目的是什么,因为我们无法使用applet API做任何事情(缩放,深度效果)?
..
我正在尝试限制应用程序的视频捕获帧速率,因为我发现它会影响VoiceOver性能。 目前,它捕获了来自摄像机,然后使用OpenGL例程尽快处理这些帧。我想在捕获过程中设置一个特定的帧率。 我希望能够通过使用videoMinFrameDuration或minFrameDuration来做到这一点,但这似乎没有什么区别性能。有想法吗? NSArray * devices = [AV
..
我的目标是编写一个自定义的相机视图控制器,该控制器: 可以同时使用后置摄像头和前置摄像头(如果有)拍摄所有四个界面方向的照片. 正确旋转和缩放预览“视频"以及全分辨率照片. 允许将(简单)效果应用于预览“视频"和全分辨率照片. 此问题中记录了我以前的努力.我的最新尝试是修改Apple的示例GLVideoFrame(来自WWDC 2010).但是,当会话预设为AVCaptureSes
..
我似乎在将相机设置为以240 FPS录制时遇到问题,但是由于某种原因,输出文件仅为30 FPS. 这是我用于设置相机的代码(首先实例化): class HFRCamera { public: HFRCamera(); AVCaptureDeviceInput *camera; AVCaptureDeviceInput *microphone; AVCa
..
我可以读取条形码,但无法获取屏幕快照. getScreenImage函数获取白屏.如何获得屏幕截图,包括可以看到摄像机视图的屏幕?谢谢. @interface igViewController () { AVCap
..
我想在彼此相邻的两个UIView中显示iPad2的正面和背面摄像头的流. 要流式传输一台设备的图像,我使用以下代码 AVCaptureDeviceInput *captureInputFront = [AVCaptureDeviceInput deviceInputWithDevice:[AVCaptureDevice defaultDeviceWithMediaType:AVMediaTy
..