avassetwriter相关内容
我正在尝试使用AVAssetWriter创建多个串行写入会话。一旦我成功完成一个(在调用finishWriting之后)状态设置为2(AVAssetWriterStatusCompleted)。 尝试创建另一个会话,我调用startWriting,但是我得到了错误: [AVAssetWriter startWriting]在状态为2 时无法调用方法 似乎我无法创建写入会
..
我知道如何使用AVAssetReader和AVAssetWriter,并成功使用它们从一部电影中获取视频轨道并将其转码为另一部电影。不过,我也想用音频来做这件事。在完成初始转码后,我是否必须创建和AVAssetExportSession,或者在写入会话期间是否有某种方式在轨道之间切换?我不想处理AVAssetExportSession的开销。 我问因为,使用拉式方法 - (while([as
..
来自 Apple文档它只是说: 当此属性的值为YES时,输出文件将为 以这样的方式编写,即只需下载 的小额文件即可开始播放。 但是实际上是在发生吗? 解决方案 当shouldOptimizedForNetworkUse设置为YES时,调用finishWriting将从末尾移动MP4 moov atom(movie atom)文件的开头到文件的开头。 moov atom包含有
..
我正在尝试更改相机视图前和返回。它工作正常。如果录制视频没有翻转暂停/记录选项它工作正常。但是如果我们翻转相机视图那么,进一步录制视频未保存导致 AVAssetWriterStatusFailed - 无法完成操作。任何人都可以帮我找到我错的地方吗?以下是我的代码。 Camera.m - (void)flipCamera { NSArray * inputs = _session
..
让我看看我是否理解正确。 在目前最先进的硬件上,iOS允许我以下列fps记录:30,60,120和240. 但这些fps表现不同。如果我以30或60 fps的速度拍摄,我希望以这些fps拍摄的视频文件分别以30和60 fps的速度播放。 但如果我在120拍摄或者240 fps,我希望以这些fps拍摄的视频文件以30 fps的速度播放,否则我将看不到慢动作。 几个问题:
..
我有一些文件,-m4a -mp4 -mp3等。 我想更改这些细节 AVMetadataItem AVMetadataCommonKeyArtwork AVMetadataCommonKeyArtist 我可以用 AVAssetExportSession ,但我需要更改目录。有没有办法可以直接写在文件上? 我找到了这个程序,但是不起作用:( NSError *错误;
..
我正在尝试使用以下方法将音频文件与视频文件合并: +(void)CompileFilesToMakeMovie:(NSString *)audioPath { NSLog(@“a”); AVMutableComposition * mixComposition = [AVMutableComposition composition]; NSURL * audio_inputFil
..
当我使用AVCaptureVideoDataOutput和AVCaptureAudioDataOutput录制音频+视频时,我遇到了延迟问题。有时视频会阻塞几毫秒,有时音频与视频不同步。 我插入了一些日志并观察到我首先获得了大量视频缓冲在captureOutput回调中,一段时间后我得到音频缓冲区(有时我根本没有收到音频缓冲区,结果视频没有声音)。如果我评论处理视频缓冲区的代码,我会毫无问题
..
我有一个由类型1(P帧),5(I帧),7(SPS)和8(PPS)组成的H.264 / AVC NAL流。我想将它们写入.mov文件而不重新编码。我正在尝试使用 AVAssetWriter 来执行此操作。 AVAssetWriterInput 的文档说明: 为outputSettings传递nil指示输入通过通过附加的示例,在将它们写入输出文件之前不进行处理。例如,如果要附加已经采用所需压缩格
..
我和我的团队正在尝试通过更改视频帧速率将视频文件重新编码为更“gify”的感觉。我们使用以下属性 AVAssetWriterInput : 让videoSettings: [String:Any] = [ AVVideoCodecKey:AVVideoCodecH264, AVVideoHeightKey:videoTrack.naturalSize.height, AVVideoWi
..
我正在使用 glReadPixels 将数据读入 CVPixelBufferRef 。我使用 CVPixelBufferRef 作为 AVAssetWriter 的输入。不幸的是,像素格式似乎不匹配。 我认为 glReadPixels 返回 RGBA 格式的像素数据,而 AVAssetWriter 想要 ARGB 格式的像素数据。将 RGBA 转换为 ARGB 的最佳方法是什么? 这是
..
我正在iOS上的Unity应用生成视频。我正在使用iVidCap,它使用AVFoundation来做到这一点。那方面都很好。本质上,视频是通过使用纹理渲染目标并将帧传递给Obj-C插件来渲染的。 现在我需要为视频添加音频。音频将是在特定时间发生的声音效果,也可能是某些背景声音。正在使用的文件实际上是Unity应用程序内部的资产。我可能会将这些写入手机存储然后生成AVComposition,但
..
尽管StackOverflow上有很好的信息,但我仍然在这里尽力而为... 我正在尝试将OpenGL渲染缓冲区写入iPad 2上的视频(使用iOS 4.3)。这正是我正在尝试的: A)设置AVAssetWriterInputPixelBufferAdaptor 创建指向视频文件的AVAssetWriter 使用适当的设置设置AVAssetWriterInput 设置A
..
我已经在iphone中完成了图像到视频转换(当然我从堆栈溢出问题中得到了代码)。但问题是录制视频的速度非常快,即使我有大约2250帧,它也会在2秒内逃跑。我知道问题在于它的帧速率。 但我不知道如何纠正它。 我的代码在下面 NSArray * paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,NSUserDom
..
我正在尝试同时读写由AVAssetWriter写的H.264 mov文件。我设法提取单个NAL单元,将它们打包成ffmpeg的AVPackets,并使用ffmpeg将它们写入另一种视频格式。它的工作原理和生成的文件播放很好,但播放速度不正确。如何从原始H.264数据计算出正确的PTS / DTS值?或者也许还有其他一些方法可以得到他们? 这是我试过的: 将捕获最小/最大帧速率限制为30
..
将视频保存到iPhone库中的问题。 i有一系列UIImage,两个按钮“convertToVideo”&“saveToiPhoneLib” - ( IBAction)convertToVideo { NSArray * paths = NSSearchPathForDirectoriesInDomains(NSCachesDirectory,NSUserDomainMas
..
我正在开发一个个人iOS项目,需要通过4G连接将全屏视频(长度为15秒)上传到后端。虽然我可以拍摄视频很好,文件的输出大小出来30MB,这让我想我在做一些事情大大错误,当谈到压缩。下面是我用来搭配AssetWriter的代码: - (void)captureOutput:(AVCaptureFileOutput *)captureOutput didStartRecordingToOut
..
我从一组图片创建视频。我的工作的目的是创建一个没有压缩的.mov视频。我在开发者库中看到它存在一个关键的“AVVideoCompressionPropertiesKey”,但我不知道如何指定没有压缩这个键。 你能帮我吗? 以下是我的示例代码: NSDictionary * videoCleanApertureSettings = NSDictionary dictionaryW
..
我正在开发一个功能上的视频压缩;我的想法如下: 获取视频的分辨率和位元率。 视频。如果它大640x480,我会把这个视频压缩一半,并在1/4调整比特率。例如,如果视频分辨率为1920x1080,则其将被压缩为960x540,并且以4mbps的1920x1080将以1mbps压缩为960x540。 我有几个问题: 如何在iOS中获得解析度和视频比特率? 如果压缩1920x108
..
我使用以下代码从图片中创建视频。 当我从网络下载的相机胶卷或屏幕截图中选择图片时,此代码工作正常但是从相机拍摄的所选图像显示在电影中放大。 我不知道相机的图像有什么问题。 任何人都可以帮我解决这个问题。 - IBAction)createV:(id)sender { NSString * documentsDirectory = [NSHomeDirectory(
..