avfoundation相关内容
这一直运行良好,直到 GM Xcode(和 iOS 11).现在我收到这些错误: Apple Mach-O 链接器 (ld) 错误组“__T0So20AVCapturePhotoOutputC12AVFoundation01_abC16SwiftNativeTypesACWP",引用自:xxxxxxxxx“__T012AVFoundation37_AVCapturePhotoOutputSwif
..
我正在开发一个自定义相机应用程序,本教程使用 AVCaptureStillImageOutput,它在 ios 10 中已被弃用.我已经设置了相机,现在被困在如何拍摄照片上 这是我拿着相机的全貌 导入 UIKit导入 AVFoundationvar cameraPos = "返回"类 View3: UIViewController,UIImagePickerControllerDelega
..
我一直在研究使用自定义相机,最近我升级到 Xcode 8 beta 和 Swift 3.我最初拥有这个: var stillImageOutput: AVCaptureStillImageOutput? 但是,我现在收到警告: 'AVCaptureStillImageOutput' 在 iOS 10.0 中被弃用:改用 AVCapturePhotoOutput 由于这是相当新的,我
..
我正在 AVFoundation 相机中使用缩放功能,我通过缩放具有 AVCaptureVideoPreviewLayer 的视图来实现缩放.现在我想捕捉缩放的图像. 这是我添加 AVFoundationVideoPreviewLayer 以查看的代码: //创建一个 uiview 子类来显示相机源UIView *previewView = [[UIView alloc] initWith
..
这看似简单的任务,却让我抓狂.是否可以将包含 AVCaptureVideoPreviewLayer 作为子层的 UIView 转换为要保存的图像?我想创建增强现实叠加层并有一个按钮将图片保存到相机胶卷.按住电源按钮 + 主页键将屏幕截图捕获到相机胶卷,这意味着我的所有捕获逻辑都在工作,并且可以完成任务.但我似乎无法使其以编程方式工作. 我正在使用 AVCaptureVideoPreviewL
..
根据这个什么技术最适合将 iPhone 视频摄像头数据实时流式传输到计算机? 可以从 iphone 摄像头获取压缩数据,但正如我在 AVFoundation 参考资料中阅读的那样,您只能获得未压缩的数据.> 所以问题是: 1) 如何从 iPhone 的摄像头获取压缩的帧和音频? 2) 使用 ffmpeg 的 API 对未压缩的帧进行编码对于实时流传输是否足够快? 任何帮助将不胜
..
我正在尝试使用以下代码获取视频缩略图: let asset = AVAsset(URL: url)让 imageGenerator = AVAssetImageGenerator(资产:资产)imageGenerator.appliesPreferredTrackTransform = true做 {让 cgImage = 尝试 imgGenerator.copyCGImageAtTime(CM
..
我正在使用 iOS AVFoundation 框架,我能够成功地合并视频轨道、图像叠加和文本叠加.但是,我的输出文件无法保持原始源视频中的音频完整无缺. 如何确保我的一个视频的音频源与我创建的新视频保持一致? 编辑 *使用此代码有一个很好的示例,说明如何创建视频(带有原始音频).在使用 AVFoundation 处理视频时,我需要单独包含音轨对我来说并不明显.希望这对其他人有帮助
..
我正在使用 AVCaptureMovieFileOutput 录制一些视频.我使用 AVLayerVideoGravityResizeAspectFill 显示预览层,它会稍微放大.我的问题是最终的视频更大,包含在预览期间不适合屏幕的额外图像. 这是预览和结果视频 有什么方法可以指定我想使用 AVAssetExportSession 从视频中剪切的 CGRect? 编辑----
..
我正在编写应将 mov 文件转换为 mp4 的 ios 应用程序.有没有办法使用 AVFoundation 或类似的东西? 非常感谢您的帮助! 谢谢! 解决方案 你需要做 AV 媒体转码,还是只是更换容器?标准(非流媒体)MOV 容器将/应该与 MP4 容器兼容(检查来自 iOS 的一些测试文件显示它们是相同的).因此,您可以将文件重命名为 MP4.这确实假设容器中的媒体受 M
..
我想在特定时间从视频中抓取帧.我正在调用我的抓取框架函数,时间指定为 Float64 秒.问题是它没有抓取当前帧.它似乎忽略了小数.如果我使用例如 1.22 和 1.70 调用该函数,它将返回相同的帧.我对 Swift 很陌生,所以我想我没有正确理解 CMTime 对象.那么有人能看出这有什么问题吗? func generateThumnail(url : NSURL, fromTime:Flo
..
我正在使用 AVFoundation 进行视频录制.我必须将视频裁剪为 320x280.我正在获取 CMSampleBufferRef 并使用以下代码将其转换为 UIImage. CGImageRef _cgImage = [self imageFromSampleBuffer:sampleBuffer];UIImage *_uiImage = [UIImage imageWithCGImage
..
我想获取使用 iPhone/iPAD 拍摄的视频 (*.mov) 的缩略图.我正在尝试为此使用 AVFoundation 库并收到此错误: 无法生成缩略图,错误:Error Domain=AVFoundationErrorDomain Code=-11822 "Cannot Open" UserInfo=0x15d90a30 {NSLocalizedDescription=无法打开,NSLoca
..
我创建了一个空白项目 (iOS) 并将其放入我的 viewDidLoad: NSString *moviePath = [[NSBundle mainBundle] pathForResource:@"Movie" ofType:@"m4v"];MPMoviePlayerViewController *playerController = [[MPMoviePlayerViewControlle
..
我用 Swift 编写了一个程序.我想将视频与音频文件合并,但出现此错误. "失败错误域=AVFoundationErrorDomain Code=-11838 "操作停止" UserInfo=0x17da4230 {NSLocalizedDescription=操作停止,NSLocalizedFailureReason=此媒体不支持该操作.}" 代码 func mergeAudio
..
我发现 导出 [UIImage] 作为电影,但它全部在 ObjectiveC 中,我无法为 Swift 弄清楚. 我需要从 [UIImage] 创建一个视频 根据上面的链接处理 Zoul 的回答.第 1 部分)联系作家 到目前为止我有: let paths = NSFileManager.defaultManager().URLsForDirectory(.DocumentDi
..
在此处的 Mac 应用程序中使用 AVPlayer 以全屏方式播放文件夹中的随机视频,但是当我尝试播放 .vob 文件或 .mpg 文件时,我只会得到一个黑屏,只要视频持续存在. AVFoundation 不支持从这些容器播放吗?我想,因为它们可以用 QuickTime Player 播放,所以它们也可以用 AVPlayer 播放. 解决方案 AVURLAsset 类 有一个静态方法,您
..
我尝试了以下两种将 UIImage 的像素缓冲区附加到 ASSETWriterInput 的方法.除了视频文件中没有数据外,一切看起来都很好.怎么了? 1 适配器类 AVAssetWriterInputPixelBufferAdaptor * avAdaptor = [AVAssetWriterInputPixelBufferAdaptor assetWriterInputPixelBuf
..
我正在 Swift3 中开发基于 Video 的应用程序.根据我的要求,我必须将 Video 和 Audio AVAsset 合二为一,分别调整它们的音量并保存最终的 VideoiPhone 设备库 中的代码>.使用以下代码可以正常工作: func mergeVideoAndMusicWithVolume(assetVideo: AVAsset, assetMusic: AVAsset, sta
..
我一直在努力解决在 iOS 设备上捕获期间和之后控制视频方向的问题的多个维度.多亏了 Apple 以前的答案和文档,我才能弄清楚.但是,现在我想将一些视频推送到网站,我遇到了特殊问题.我在这个问题中特别在这个问题中概述了这个问题,并且建议的解决方案 原来需要方向选项视频编码时设置. 可能是这样,但我不知道如何去做.关于设置方向的文档是关于正确设置它以在设备上显示的,我已经实施了建议 在这里找
..