avcapturesession相关内容
重要提示:如果我使用: session.sessionPreset = AVCaptureSessionPresetHigh; 我的预览图片未被拉伸!!如果我将照片保存到设备 UIImageWriteToSavedPhotosAlbum(image,nil,nil,nil); 图像正常,仅在预览中拉伸。 我正在使用AVFoundation拍摄照片。 session = [[AVCap
..
我使用此代码在iOS自定义相机应用程序中实现Tap-to-Focus,但它无效。这是代码 覆盖func touchesBegan(触摸:NSSet,withEvent事件:UIEvent){ 让touchPer =触摸。 anyObject()as UITouch let screenSize = UIScreen.mainScreen()。bounds.size var focus
..
我试图让相机输入显示在预览图层视图上。 self.cameraPreviewView与IB中的UIView绑定 这是我目前使用AV Foundation Programming Guide编写的代码。但预览从未显示 AVCaptureSession * session = [[AVCaptureSession alloc] init]; session.sessionPre
..
在Swift 2.3中我使用此代码在自定义相机中拍照: func didPressTakePhoto(){ 如果让videoConnection = stillImageOutput!.connection(withMediaType:AVMediaTypeVideo){ stillImageOutput?.captureStillImageAsynchronouslyFromC
..
我正在使用AVCaptureSession录制带有音频的视频。一切似乎都适用于短视频,但由于某些原因,如果我录制的视频长度大于12秒,则音频不起作用。 解决方案 我发现解决方案为一个完全不同的答案问题。 问题是AVCaptureMovieFileOutput中的 movieFragmentInterval 属性。 此属性的文档说明了这些片段是什么: QuickTime影片
..
我正在使用AVFoundation类在我的应用中实现自定义相机。我只拍摄静止图像,而不是视频。我有一切工作,但我被一些东西困扰。我会在捕获静止图像时考虑设备方向,并适当地设置视频连接的videoOrientation。代码段: //根据设备方向将videoOrientation设置为 //确保图片正确面向所有方向 AVCaptureVideoOrientation videoOrien
..
我的应用只是风景。我将这样呈现AVCaptureVideoPreviewLayer: self.previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:session]; [self.previewLayer setBackgroundColor:[[UIColor blackColor] CGColor]]
..
每当我开始使用麦克风作为输入运行AVCaptureSession时,它会取消当前正在运行的任何背景音乐(例如iPod音乐)。如果我注释掉添加音频输入的行,则背景音频会继续。 有没有人知道用麦克风录制视频片段的方法,同时继续允许背景音频播放?当您尝试录制视频并且当前正在播放音乐时也会出现错误。 A试图这样做: [[AVAudioSession sharedInstance] se
..
在此使用本教程: http://www.musicalgeometry.com/?p=1297 我创建了使用AVCaptureSession进行自定义叠加和图像捕捉。 我试图允许用户在前后摄像头之间切换。这是我在CaptureSessionManager中切换摄像头的代码: - (void)addVideoInputFrontCamera:(BOOL)front { NSArra
..
我见过一些示例 of CMTime (三个单独的链接),但我仍然没有得到它。我正在使用AVCaptureSession和AVCaptureVideoDataOutput,我想设置输出的最大和最小帧速率。我的问题是我只是不理解CMTime结构。 显然CMTimeMake(value,timeScale)应该每隔1 / timeScale秒给我一个值帧,总值/ timeScale秒,或者我错了?
..
我们使用 setPreferredVideoStabilizationMode:AVCaptureVideoStabilizationModeAuto 在iOS上捕获视频,但视频有时会在开始和结束时出现模糊(尽管中间很好) ,这是非常有问题的,因为我们将第一帧作为静止图像(为了在不切换相机模式的情况下启用视频和照片功能)。 将设备放平在桌面上消除了所有模糊,因此整个视频都很清晰。这表明它与视
..
我知道打开闪光灯并在iPhone 4上保持打开的唯一方法是打开相机。我不太确定代码。这是我正在尝试的: - (IBAction)turnTorchOn { AVCaptureSession * captureSession = [[AVCaptureSession alloc]在里面]; AVCaptureDevice * videoCaptureDevice = [AVCaptu
..
我和下面的问题几乎相同: 在拍摄照片时切换AVCaptureSession预设 然而问题是(自我)答案没有帮我一点。我想知道是否有人知道如何做到这一点。 我正在捕捉视频帧,所以我可以处理它们并用它们做点什么。为此,我使用 AVCaptureSessionPrese640x480 ,因为我需要获得一个体面的计算帧时可以获得的所有帧速率。现在,当用户想要拍摄照片时,我希望他能够以尽可
..
我在尝试在录制视频时振动手机,但我发现 AudioServicesPlaySystemSound(kSystemSoundID_Vibrate); 不能很好地播放 AVCaptureSession 。 解决方案 您可能需要使用这种方法设置音频与其他混音,我发现这很有用: - (void)setupAudio { [ AVAudioSession sharedInstance]
..
相机预览看起来很完美,但当我拍摄照片并将其保存到相机胶卷时,图片显得非常黑暗。试了一堆线程在这里,但没有解决它。这是我的代码。 这会设置相机/预览和工作正常: captureSession.sessionPreset = AVCaptureSessionPreset640x480 let devices = AVCaptureDevice.devices() //循环访
..
不能想象这一个。 当应用程序处于活动状态时,一切正常,并且当我将应用程序移动到背景(按下主页按钮)时,有时,而不是返回,预览图层会冻结/卡住。 Im使用viewWillAppear和viewDidAppear进行设置。 这是我如何设置一切: var backCamera = AVCaptureDevice.devicesWithMediaType(AVMediaTypeVideo)
..
我正在写一个应用程序,对从AVCaptureSession中的AVCaptureVideoDataOutput获得的图像数据进行一些实时处理。 我目前能够启动会话,添加输入&输出,然后检索图像数据,将其转换为UIImage并在屏幕上实时显示。 我遇到的主要问题是图像的方向是尴尬的。它旋转和镜像,它也看起来扭曲。我已经做了一些研究,我发现了一些相关 问题,我试过已经建议的代码,但它不能解
..
初始上下文 我正在开发一个增强现实应用程序位置,我需要获得视野[FOV](我只是更新的方向改变,所以我正在寻找一个方法,当我调用它可以得到这个值) 目标是使一个“度”尺与现实相关,如下: 我已经使用 AVCaptureSession 显示摄像机流;以及与 CAShapeLayer 结合以绘制标尺的路径。这是工作相当不错,但现在我必须使用视场值将我的元素放在正确的地方(选择正确的空
..
我的小组正在开发一组SDK,用于条形码扫描, ID扫描和 OCR 。我们使用设备的相机,具体来说, AVCaptureSession ,以获取我们执行我们的处理的视频帧。 重新探索新的iOS 9多任务功能滑动和分割视图。 Apple建议选择退出这些功能应用,其中使用整个屏幕进行预览和快速捕获时间是一个主要功能(参考)。这是在其示例应用中使用的方法 AVCam 。 但是,我们的客户
..
我开发的应用程序需要尽可能多的帧速率捕获帧缓冲区。我已经知道如何强制iphone以60 fps捕获 - (void)captureOutput:(AVCaptureOutput *) captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection
..