avassetwriter相关内容
我已经使用AVAssetWriter从uiimages成功创建了视频.但是,一旦编写者开始编写视频,乐器中的内存分配就会突然增加.内存分配的峰值从3-4 MB更改为120MB,然后冷却.我为此使用了以下代码... -(void)writeImageAsMovie:(NSArray *)array toPath:(NSString*)path size:(CGSize)size { NSMut
..
向使用AVAssetWriter创建的视频中添加图像叠加层的正确方法是什么? 使用AVAssetExportSession可以这样做,但是这个问题是关于如何使用AVAssetWriter这样做的,这样可以更好地控制质量和输出. 有两种情况: 1)简单:添加一个覆盖层,该覆盖层可以在视频的整个时长内显示(类似于水印). 2)复杂:添加不同的叠加层,以在不同时间在视频中进行动画
..
基于此 SO帖子,下面的代码可以旋转,居中和裁剪用户实时捕获的视频. 捕获会话使用AVCaptureSessionPresetHigh作为预设值,而预览层使用AVLayerVideoGravityResizeAspectFill作为视频重力.此预览非常清晰. 但是,导出的视频表面上并不那么清晰,因为从5S上的后置摄像头的1920x1080分辨率缩放到320x568(导出的视频的目标大小
..
我很难理解如何使用AVAssetWriter将30fps的运动JPEG流转换为视频文件.我没有得到的部分是 [adaptor appendPixelBuffer:带有PresentationTimeresentTime的缓冲区]方法. 如果要输出30fps的mpeg4视频,如何计算withPresentationTime值? 视频源是一台实时传输30fps动态JPEG的摄像机.
..
我有这段代码可以将视频的大小从1280 x 720调整为640 x 360 但是我要调整大小而没有裁剪. 有没有办法完全调整不剪裁的大小? 这是代码 class func resizer(inputURL : NSURL , completion: (outPutURL : NSURL?) -> Void ){ let videoAsset = AVAsset(U
..
我一直在网上浏览所有内容,似乎找不到所需的教程或帮助. 使用AVFoundation和Dlib库,我创建了一个应用程序,可以使用手机上的前置摄像头从实时视频中检测人脸.我正在使用Shape Predictor 68 Face Landmark s执行此操作.为此,我敢肯定我必须使用AVCaptureVideoDataOutput而不是AVMovieFileOutput,以便可以分析每个帧.
..
我有一个AudioTapProcessor附加到AVPlayerItem. 它将调用 static void tap_ProcessCallback(MTAudioProcessingTapRef tap, CMItemCount numberFrames, MTAudioProcessingTapFlags flags, AudioBufferList *bufferListInOut, CMI
..
我正在使用AVCaptureSession来使用视频和音频输入,并使用AVAssetWriter编码H.264视频. 如果我不写音频,则视频将按预期进行编码.但是,如果我编写音频,则会收到损坏的视频. 如果我检查提供给AVAssetWriter的音频CMSampleBuffer,则会显示以下信息: invalid = NO dataReady = YES makeDataRead
..
我正在尝试使用AVAssetWriter进行屏幕录制,该软件也接受音频输入.但是,我一直停留在此错误上,在appendSampleBuffer:(在encodeAudioFrame:内)几次调用后,有时AVAssetWriter变为AVAssetWriterStatusFailed Failed: Error Domain=AVFoundationErrorDomain Code=-1180
..
我正在用AVAssetWriter录制视频(用户也只能切换到音频).我在启动应用程序时开始录制. 但是第一帧是黑色(或非常暗).当我从音频切换到视频时,也会发生这种情况. 感觉AVAssetWriter和/或AVAssetWriterInput尚未准备好记录.如何避免这种情况? 我不知道这是否有用,但我也使用GLKView来显示视频. func start_new_record(){
..
我正在制作一个利用AVFoundation录制视频的示例应用程序.重点是让我可以更好地控制视频的录制方式.在我的示例项目中,我捕获了视频,但是正在努力正确地处理方向. 我在网络上进行了很多搜索,发现其他人建议我不要让捕捉视图或捕捉会话根据方向旋转,而应该设置一个转换以在播放期间旋转视频.我可以在iOS和Mac设备上正常工作,但是想知道在其他平台(例如Windows或Android)上是否会出
..
我一直在研究iOS Swift中的视频压缩,并遵循这 SO的回答.在我将这段代码的文件格式更改为 .mp4 之前,一切工作正常 let videoWriter = try! AVAssetWriter(outputURL: outputURL as URL, fileType: AVFileType.mov) 出于某些原因,我需要使用 .mp4 文件格式的输出.因此,当我这样做时,
..
是否可以合成绿色屏幕图像(绿色背景下的动画演员)和背景图片,并使用iPhone上的avassetwriter制作视频片段. 我有一个应用程序,可以在绿色背景下创建一系列动画角色的屏幕截图.我想用他们图书馆的照片来合成这些照片. 是否可以通过某种方式将两者合并为iPhone上的视频? 谢谢 解决方案 是的.我刚刚在我的 GPUImage 框架中添加了一个色度键过滤器,该过滤
..
我正在使用AVQueuePlayer播放我们应用中的视频列表.我正在尝试缓存AVQueuePlayer播放的视频,以便不必每次都下载视频. 因此,在视频播放完毕后,我尝试将AVPlayerItem保存到磁盘,以便下次使用本地URL对其进行初始化. 我试图通过两种方法来实现这一目标: 使用AVAssetExportSession 使用AVAssetReader和AVAssetWr
..
我们正在以视频编码中所述的样式使用AVAssetReader和AVAssetWriter使用AVAssetWriter-CRASHES 基本上是从相册/资产库中读取视频,然后以不同的比特率写入以减小其大小(最终用于网络上传). 让它起作用的诀窍是在AVAssetReaderTrackOutput的outputSettings中指定kCVPixelBufferPixelFormatTypeKe
..
我们试图了解如何控制/指定使用AVAssetReader和AVAssetWriter编码的视频的帧频.具体来说,我们正在使用AVAssetReader和AVAssetWriter对我们从照片/视频库访问的视频进行转码/编码/压缩.我们能够控制比特率,宽高比变化等,但无法弄清楚如何控制帧频.具体来说,我们希望能够将30分钟(5分钟长)的30 FPS视频作为输入,并以15 FPS的速度发出5分钟的视频
..
我试图制作反向视频.在AVPlayer中播放资产时,我将rate设置为-1以使其以反向格式工作.但是如何导出该视频?我调查了文档.阅读了有关avassetwrite,sambuffers,组合的信息,但没有找到任何方法来做到这一点.以下链接是我引用的 http://www.raywenderlich. com/13418/how-to-to-play-record-edit-videos-i
..
我有一个项目,当前使用H.264编码器在iOS上录制视频.我想尝试在iOS 11中使用新的HEVC编码器来减小文件大小,但是发现使用HEVC编码器会导致文件大小急剧膨胀. 这是GitHub上的一个项目,可显示该问题-它同时使用H.264和H将相机中的帧写入文件.265(HEVC)编码器,并将生成的文件大小打印到控制台. AVFoundation类的设置如下: class VideoWr
..
我需要为OpenGL框架获取CMSampleBuffer.我正在使用这个: int s = 1; UIScreen * screen = [UIScreen mainScreen]; if ([screen respondsToSelector:@selector(scale)]){ s = (int)[screen scale];
..
我在应用程序中使用 GPUImage 并尝试过滤视频.实时视频过滤效果很好.当我尝试从文件系统将视频读取到内存中并使用 sunsetlakes软件教程页面和SimpleVideoFileFilter演示中. 编辑:我意识到我的原始帖子可能没有提出足够具体的问题.我要问的是:如何准确地将视频从磁盘读取到内存中,应用GPUImageFilter,然后使用过滤后的版本覆盖原始视频? 应用程序
..