avcapturedevice相关内容
我正在玩Swift和iPhone 7 Plus。 我正在使用builtInWideAngleCamera和builtInTelephotoCamera。即使我无法同时获取2张图像,这也很棒。 我在Apple文档中看到AVCaptureDeviceType包含一个builtInDualCamera条目。该设备的目的是什么,因为我们无法使用applet API做任何事情(缩放,深度效果)?
..
在我的应用程序中,我可以选择使用手电筒.但是,只有iPhone 4和iPhone 4S带有手电筒.其他设备没有手电筒.如何找到当前的设备型号?请帮我.预先感谢. 解决方案 您不应使用设备模型作为功能是否存在的指示.而是使用可以准确告诉您该功能是否存在的API. 您要使用AVCaptureDevice的-hasTorch属性: NSArray *devices = [AVCapt
..
我使用以下代码聚焦iphone相机。但它没有用。我从Apple的AVCam示例代码中获取此代码。我做错了吗?有没有任何方法可以检测 是否确实关注了iPhone? - (void)focusAtPoint:(CGPoint)point { AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:A
..
我可以根据使用AVCaptureSession从相机捕捉视频帧http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html 。但是,似乎AVCaptureScreen从相机捕获帧而不在屏幕上显示相机流。我想像UIImagePicker一样显示相机流,以便用户知道相机正在打开并看到相机指向的位置。任何帮助或指针将不胜感激! 解决
..
所以,我按照Apple的指示使用 AVCaptureSession 捕获视频会话: http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html 。我面临的一个问题是,即使相机/ iPhone设备的方向是垂直的(并且 AVCaptureVideoPreviewLayer 显示垂直相机流),输出图像似乎是在横向模式中。我在示例代码的
..
我正在为iPhone 5s编码,它现在有两个用于后置摄像头的LED灯。我不知道官方的LED颜色名称,但一个LED是白色的,另一个LED是黄色的。 Apple将此称为“True Tone”。 我正在尝试单独访问这些相机LED灯。 我相信这是可能的,因为当我访问iOS7的控制中心(从底部向上滑动)并按下内置闪光灯时,只有白色LED亮起。 这与应用下面的割炬灯代码不同。当我执行下面的代
..
有很多问题(此处,此处)关于双倍高度红色录音状态栏,但当应用程序退回到后台时,所有这些都会参考闪烁。我得到一个闪光灯,我假设从 AVCaptureSession 设置,而应用程序在前台。 之前有没有人经历过这个? 解决方案 您必须从 AVCaptureSession 中删除音频输入 [self.captureSession removeInput:audioIn];
..
我正在尝试通过以下代码设置相机的缩放级别: AVCaptureDevice * videoDevice = [AVCaptureDevice defaultDeviceWithMediaType :AVMediaTypeVideo]; if([videoDevice lockForConfiguration:nil]){ float newzoom = 1.3; vide
..
我正在尝试在iOS相机应用中启用AVCaptureDevice的automaticEnablesLowLightBoostWhenAvailable,但我完全无法让AVCaptureDevice的isLowLightBoostSupported返回true。 问题:有没有需要做些什么才能使低光增强api超出锁定配置?是否有任何已知的原因,isLowLightBoostSupported将在完
..
如何像“相机”一样实时进行人脸检测?像白色圆形的脸和脸。我使用 AVCapturSession 。我发现我保存的图像用于面部检测。下面我附上了我当前的代码。它只在我按下按钮并将其保存到照片库时捕获图像。一些请帮我根据人的脸来创建实时圆形! 代码 class CameraFaceRecongnitionVC:UIViewController { @IBOutlet weak va
..
我试图用AVCaptureSession每秒拍摄5张照片,我不确定我理解AVFrameRange的含义。目前我有一些设置设备的代码: AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; 并尝试设置 activeVideoMinFrameDurat
..
我正在开发视频流应用程序,其中我需要捕获前置摄像头视频帧然后编码然后转移到另一端,典型的流程是这样的 AVCaptureSession - > AVCaptureDeviceInput - > AVCaptureVideoDataOutput - >捕获帧 - >编码帧 - >发送帧到另一端, 它工作正常,我已经设置了 kCVPixelFormatType_420YpCbCr8BiPl
..
我有两个视图控制器。一个是根VC,包含UI界面,如记录按钮。在这个视图控制器上,我还在索引0处显示另一个VC的视图。该视图包含AVCaptureVideoPreviewLayer。 我希望我的摄像机模仿Apple摄像机应用程序,界面布局随旋转调整,但视频预览图层不调整。你可以看到股票视频应用程序中的录制计时器(UILabel)如何消失,并根据方向重新出现在顶部。 任何想法如何做到这一点
..
我使用以下方法设置自iOS 4以来的焦点: - (void)focusAtPoint :( CGPoint)指向 { AVCaptureDevice * device = [[self captureInput] device]; NSError *错误; if([device isFocusModeSupported:AVCaptureFocusModeAutoFo
..
我正在尝试捕获实时麦克风音频数据。 我从苹果示例中获取了以下内容 AVCaptureSession 。 AVCaptureSession * captureSession = [[AVCaptureSession alloc] init]; AVCaptureDevice * audioCaptureDevice = [AVCaptureDevice defaultDevic
..
我遇到了困难时期,因为我觉得应该很简单。 我只是想在我的iOS应用程序中拍照时点亮闪光灯。我尝试过的所有功能都失败了,或只有20%的功能。 以下是触发闪光灯的代码: //我们在这里:captureDevice.hasFlash&& captureDevice.isFlashModeSupported(.On) do {try captureDevice.lockForConfig
..
我有一个视频捕捉应用程序,我希望能够在录制音频+视频时播放背景音乐。 如果设置 AVAudioSession 类别 PlayAndRecord in didFinishLaunchingWithOptions 。但是,每当摄像机的视图进入或退出前景时,这都会导致音频出现故障,并且显然无法摆脱: https://forums.developer.apple.com/message/74778#
..
我想从AVCaptureSession的实时馈送中提取帧,我使用Apple的AVCam作为测试用例。以下是AVCam的链接: https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html I发现 captureOutput:didOutputSampleBuffer:fromConnec
..
我想在我的应用中实现自定义相机。所以,我正在使用 AVCaptureDevice 创建这个相机。 现在我想只在我的自定义相机中显示灰度输出。所以我想尝试使用 setWhiteBalanceModeLockedWithDeviceWhiteBalanceGains:和 AVCaptureWhiteBalanceGains 。我正在使用 AVCamManual:扩展AVCam以使用手动捕获。
..
我试图让相机输入显示在预览图层视图上。 self.cameraPreviewView与IB中的UIView绑定 这是我目前使用AV Foundation Programming Guide编写的代码。但预览从未显示 AVCaptureSession * session = [[AVCaptureSession alloc] init]; session.sessionPre
..