avassetwriter相关内容
我正在使用一些技巧来尝试将AVAssetWriter的原始输出写入磁盘.当我通过串联重组单个文件时,生成的文件与AVAssetWriter的输出文件的字节数完全相同.但是,重新组合的文件将不会在QuickTime中播放,也不会被FFmpeg解析,因为存在数据损坏.此处和此处的几个字节已更改,导致生成的文件不可用.我认为这是在每次读取的EOF边界上发生的,但这不是一致的损坏. 我计划最终使用与
..
我正在尝试创建一个UIView,该视图允许用户在i中点击一个按钮并记录屏幕(而不是从摄像机拍摄视频),然后将其保存到文档文件夹中.我在这里看到了几篇有关AVAssetWriter的SO文章,并对此链接进行了引用: http://codethink .no-ip.org/wordpress/archives/673 ,但该链接似乎已消失. 但是,实际上没有人显示出解决方案或提供任何有关如何实现
..
我目前正在制作一个小型应用程序,该程序可以使Mac上的网络摄像头延时播放,将捕获的帧保存为png,并且正在考虑将捕获的帧导出为单个视频. 我使用CGImage处理原始图像并将它们设置在数组中,但是我不确定从那里开始.从我自己的研究中,我不得不以某种方式使用AVAssetWriter和AVAssetWriterInput. 我在这里浏览了一下,阅读了Apple文档并搜索了google.但
..
设置场景 我正在开发一个视频处理应用程序,该应用程序可从命令行运行以读取,处理然后导出视频.我正在处理4首曲目. 我将许多片段添加到单个轨道中以制作一个视频.我们称其为ugcVideoComposition. 具有Alpha的剪辑(位于第二条轨道上并使用图层指令)在导出时进行合成设置,以在ugcVideoComposition的顶部播放. 音乐音轨. ugcVideoCompos
..
我在iOS文档中注意到 AVAssetWriterInput 您可以为 outputSettings传递 nil 字典,指定不应重新编码输入数据。 用于编码媒体的设置附加到输出。传递nil以指定不应重新编码附加的样本。 我想利用此功能传入流原始H.264 NAL,但我无法将我的原始字节流调整到 CMSampleBuffer ,我可以将其传递到AVAssetWriterInput的 ap
..
我需要根据所选图像创建一个视频。 我有代码可以正常工作,但是在附加缓冲区时给出错误。 这就是两种类型图像的保存方式。 - (void)imagePickerController :( UIImagePickerController *)picker didFinishPickingImage:(UIImage *)img editingInfo:(NSDictionary *
..
我需要从内存中的captureSession中保存一些视频帧,并在“某事”发生时将它们写入文件。 类似于此解决方案,我使用此代码将框架放入NSMutableArray: - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer(CMSampleBufferRef)sampleBuffer
..
对appendPixelBuffer的调用在3GS设备(IOS 4.1)上返回NO,但在iPhone 4设备上运行良好。 以下对appendPixelBuffer的调用是问题的根源: CVPixelBufferRef buffer = NULL; buffer = [self pixelBufferFromCGImage:[[UIImage imageNamed:@“frame1
..
嘿,我正在尝试记录我的游戏的游戏,以便我可以从设备本身将其视频上传到youtube ... m尝试做与iPhone的会说话的tomcat应用程序相同的事情..记录视频然后播放,等等... 使用glReadPixels()读取帧缓冲数据,然后在AVFoundation框架中借助AVAssetWriter将其写入视频。但是,在使用glReadPixels时,只读取每张图纸上的数据会将FPS从大约
..
我必须从我的iPhone应用程序导出一部电影,其中包含来自NSArray的UIImage,并添加一些必须以预先指定的时间开始的.caf格式的音频文件。 现在我已经能够使用AVAssetWriter(经过这个和其他网站上的许多问题和答案)导出包含图像的视频部分,但似乎无法找到添加音频文件的方法来完成电影。 以下是我到目前为止所获得的信息 - (void)writeImagesToM
..
我有一个功能,应该在iphone / ipad上将视频重新编码为可管理的比特率。这是: * 更新的工作代码,现在有音频! :) * - (void)resizeVideo:(NSString *)pathy { NSString * newName = [pathy stringByAppendingString:@“。down.mov”]; NSURL * fullPath =
..
我正在使用AVAssetWriter,它完全适用于iOS6。 问题是,当我调用 finishWritingWithCompletionHandler ,iOS7 GM上没有调用完成处理程序。 在我之前,我打电话给 markAsFinished ,甚至 endSessionAtSourceTime 调用finishWritingWithCompletionHandler。 在iOS
..
我的问题是:如何合并持续时间几乎相同的视频和音频文件? 我搜索并得到了一些问题的答案。然而,当我尝试他们提供的代码时,它只是不会产生“非零字节”电影。 你能不能看看它,看看它去了哪里错误? - (void)putTogether { NSLog(@“开始整理所有的文件“)!; AVMutableComposition * mixComposition = [AV
..
我想修剪一个视频文件。我想从图库中选择视频并将其转换为15秒的视频。如果我使用拾取器视图控制器进行常规修剪,它不会指定时间并只显示帧,但我需要修复15秒。我怎样才能做到这一点? 解决方案 Objective-C - (void)cropVideo:(NSURL *)videoToTrimURL { AVURLAsset * asset = [AVURLAsset URLAsse
..
AVAssetWriterInput的readyForMoreMediaData是否在后台线程中更新?如果readyForMoreMediaData为NO,我可以在主线程中阻塞并等到值变为YES吗? 我通过向其推送数据来使用AVAssetWriterInput(即没有使用requestMediaDataWhenReadyOnQueue)并且我设置了expectedMediaDataInRea
..
我想拍摄一些视频帧并将其编码为视频。看起来这正是 AVAssetWriter 的意思,但无论我如何看待文档和谷歌我都找不到任何实际使用它的方法。从文档看起来我需要一个输入( AVAssetWriterInput )来从中提供编写器。精细。但是 AVAssetWriterInput 类是抽象的,我在4.1中知道的唯一子类是 AVAssetWriterInputPixelBufferAdaptor ,
..
我有一个iPhone视频录制应用程序。我使用 AVAssetWriter 将录制的视频数据写入文件。我也有兴趣将自定义元数据嵌入到文件中。例如:我想将我的应用程序识别为视频的创建者。 因此在创建资产编写者之后,我使用键 AVMetadataCommonKeyCreator 到资产作者的元数据。 代码片段如下: AVAssetWriter * assetWrtr = [[AVAs
..
我正在使用 AVAssetWriterInputPixelBufferAdaptor 为视频编写一些帧,以及行为w.r.t.时间不是我所期待的。 如果我只写一帧: [videoWriter startSessionAtSourceTime:kCMTimeZero]; [adapter appendPixelBuffer:pxBuffer withPresentationTime:
..
我正在尝试使用本地m4a或mp3文件并压缩/下采样此文件(用于制作较小的文件)。 最初,我使用AVAssetExportSession将AVAsset导出到临时目录,但我没有对压缩/下采样的任何控制(你只能使用预设,其中只有.wav文件格式支持质量下降)。 然后,按照SO上的几个例子,我尝试使用AVAssetReader / AVAssetWriter来预先形成这个'出口'。 我
..
我正在使用 PBJVision 来实现点击录制视频功能。图书馆不支持方向,所以我正在尝试设计它。从我看到的,旋转视频有三种方法 - 我需要帮助决定最佳前进方法以及如何实现它。请注意,在点击到记录段之间可能会发生轮换。因此,在录制会话中,方向被锁定为用户点击按钮时的方向。下次用户点击按钮进行录制时,应该将方向重新设置为设备的方向(因此生成的视频显示为正面朝上)。 这些方法在GitHub上的问题
..