avasset相关内容
我正在尝试采用不同的方式来合并视频.我正在为每个转换创建新的轨道. 此代码的问题是,显示了第一个视频,所有其他视频均为黑色. 整个部分的音频覆盖都是正确的.似乎视频没有被合成,因为文件的大小为5 M(应为25 M时). 5M大小与第一个剪辑和音轨的大小相关.所有的AVAsets似乎都是有效的.这些文件确实存在于文件系统上.这是代码: - (void)mergeVideos:(NS
..
我试图遍历AVAsset中的每一帧,并像对待图像一样处理每一帧.我无法从搜索中找到任何内容. 我要完成的任务在伪代码中看起来像这样 for each frame in asset take the frame as an image and convert to a cvMat Process and store data of center points
..
在iOS 10中,Apple添加了离线HLS.他们在文档中提到: 重要提示:已下载的HLS资产以私有方式存储在磁盘上 捆绑格式.该捆绑包格式可能会随着时间的推移而变化,开发人员 不应尝试访问或存储捆绑包中的文件 直接使用,而应使用AVFoundation和其他iOS API来 与下载的资产进行交互. 似乎对这些文件的信息的访问受到限制.我正在尝试查找存储文件的大小.这是我的工作.下载完
..
在我的iOS应用程序的UI中,显示了一个CALayer s的复杂层次结构.这些层之一是AVPlayerLayer,它显示实时应用(使用AVVideoComposition(asset:, applyingCIFiltersWithHandler:))CIFilter的视频. 现在,我想将此图层合成导出到视频文件. AVFoundation中有两个似乎有用的工具: A :AVVideoC
..
我正在使用Swift中的AssetsPickerController从Device gallery中选择多个Videos. 问题:当我选择多个Videos或有时选择单个video时,有时我的App由于空的Video Asset而崩溃.在100次测试中,这种情况发生了5-10次. 代码: @IBAction func openAssetsAction(_ sender: UIBut
..
实施脱机FPS时出现AVFoundation错误-11800 我正在使用FPS实施脱机HLS. 我已经使用AVAssetDownloadDelegate下载了视频 现在,对于DRM内容,我需要获取许可证,因此我已经实现了AVAssetResourceLoaderDelegate 在AVAssetResourceLoaderDelegate中一切正常,我获得了CKC或许可证,但是当我执行以下代
..
下面的新编辑 我已经引用了 AVMutableComposition-仅播放第一首曲目(Swift) ,但未提供我正在寻找的答案. 我有一个AVMutableComposition().我正在尝试在此单一组合中应用单一类型AVMediaTypeVideo的MULTIPLE AVCompositionTrack.这是因为我正在使用两个不同的AVMediaTypeVideo来源
..
我已经检查了此 http://www. 7twenty7.com/blog/2010/11/video-processing-with-av-foundation 逐帧获取视频.但是我真正的要求是在特定时间获得框架.我知道AVAssetReader应该有可能,我想知道AVAssetReader中是否有任何直接方法可以做到这一点.请提供有关如何在特定时间获得帧的任何指导. 我检查了AVAsse
..
我正在Swift3中开发基于视频的应用程序.根据视频时长,我有一个视频网址和一个“范围滑块",用户可以从滑块中选择任何最小值和最大值.如果假设用户选择了最小值3 Sec和最大值7 Sec,那么在此期间,我需要生成视频缩略图图像.为此,我正在使用AVAssetImageGenerator生成此代码,我在下面的两个代码中都尝试过实现该代码: func createThumbnailOfVideo
..
我尝试使用mediaType == .video从PHAsset添加/修改元数据,我发现一些问题涉及类似的问题: 如何使用AVAssetWriter更改视频元数据? 使用AVFoundation将自定义元数据添加到视频中 关于这些问题的答案,我构建了以下片段,它是PHAsset的扩展: let options = PHVideoRequestOptions() option
..
我正在尝试使用AvAssetReader和AvAssetWriter将录制的视频与一些图像叠加.遵循此教程,我可以将视频(和音频)复制到新文件中.现在,我的目标是使用以下代码在一些初始视频帧上叠加一些图像: while ([assetWriterVideoInput isReadyForMoreMediaData] && !completedOrFailed) {
..
我想修剪一个视频文件。我想从图库中选择视频并将其转换为15秒的视频。如果我使用拾取器视图控制器进行常规修剪,它不会指定时间并只显示帧,但我需要修复15秒。我怎样才能做到这一点? 解决方案 Objective-C - (void)cropVideo:(NSURL *)videoToTrimURL { AVURLAsset * asset = [AVURLAsset URLAsse
..
我正在执行以下操作: 创建一个新的 AVAsset 给定的URL。该URL指向远程Web服务器上的视频。 通过调用尝试加载 track 属性loadValuesAsynchronouslyForKeys:completionHandler: 初始请求失败,因为没有互联网连接 我注意到请求失败了调用 statusOfValueForKey:错误: 然后我等待连接重新出现(使用一些可达性
..
我知道视频类型问题的持续时间之前已经得到解答但我在使用 AVAsset获取 .mp4 文件的持续时间时遇到了麻烦和 AVURLAsset 。我正在使用以下代码 NSString * itemPathString = [[NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,NSUserDomainMask,YES)objectAtI
..
这是我用来合并视频的方法的开始 - (void)mergeVideosAndAudio:(AVAsset *) audioAsset { //加载视频资产 NSError *错误; NSArray * dirFiles; if((dirFiles = [[NSFileManager defaultManager] contentsOfDirectoryAtPath:[
..
我想将AVAsset - arrayVideos 合并到一个视频中并将其保存在相机胶卷上。 Raywenderlich.com有一个很棒的教程,其中两个视频是合并成一个。我创建了以下代码,但是导出到相机胶卷后我获得的视频仅包含阵列中的第一个和最后一个视频(不包括 arrayVideos中间的其他视频)。我在这里遗漏了什么吗? var arrayVideos = [AVAsset]()//视
..
我正在使用 AVPlayer 在iOS应用程序中实现自定义视频播放器。要从网络播放视频我分配了一个播放器: [[AVPlayer alloc] initWithURL:_URL]; 创建资产: AVURLAsset * asset = [AVURLAsset URLAssetWithURL:self.URL options:@ {AVURLAssetPref
..
我正在使用带云存储的ios音乐播放器。 我需要提取音乐信息,如标题,艺术家,艺术品。 我有一个名为playit的动作,可以播放和暂停mp3文件。它还应该使用与mp3文件关联的metadtaa填充一些UILables和UIImage。问题是我无法从不同的25个mp3文件中提取元数据。这是我的代码: 文件网址是正确的,因为音频播放器能够找到并播放它,但我不知道为什么avmetadat
..
以下是代码: AVAssetExportSession * exporter = [[AVAssetExportSession alloc] initWithAsset:mixComposition presetName:AVAssetExportPresetHighestQuality]; exporter.outputURL = outputUrl; exporter.outp
..
有没有人想出如何从Live Photo中提取视频部分?我正在开发一个应用程序,将Live Photos转换为GIF,第一步是从Live Photo获取视频文件。它似乎应该是可能的,因为如果你将手机插入Mac,你可以看到单独的图像和视频文件。我在提取过程中碰到了一堵砖墙,我尝试了许多方法,但都失败了。 我做的第一件事就是通过执行以下操作获取我认为是Live Photo的视频部分的PHAsset
..