cmtime相关内容
这里的目标是通过AVCaptureDataOutput通过视频创建一个mp4文件,并通过CoreAudio录制音频.然后将两者的CMSampleBuffers发送到具有AVAssetWriterInput(AVMediaTypeVideo)和AVAssetWriterInput(AVMediaTypeAudio)的AVAssetWriter 我的音频编码器将AudioBuffer复制到新的C
..
我在使用UISlider和AVPlayer清理方法时遇到了麻烦.每次调用该方法时,播放器将从0重新启动.我尝试调试,并且似乎滑块值正确,但是当我“跳过"时,将其设置为0,因此播放器重新启动.这是我尝试过的: var desiredTime = CMTimeMake(Int64(self.progressSlider.value), 1) AudioManager.share
..
我正在研究CMTimeMake,以便为视频添加慢动作和快动作效果.在这里我们需要按视频比例除以实现快速效果,而要对视频比例乘以进行慢效果. 这里是: let videoScaleFactor = Int64(2) // Get the scaled video duration let scaledVideoDuration = (mode == .Faster) ? CMTimeM
..
让我们假设我有一个从start time零构造的CMTimeRange,并且 duration 40秒. 我想用 X 秒分隔符将此CMTimeRange分成多个块.因此,块的total duration将与原始持续时间相同,并且每个startTime都将反映前一个块的endTime.最后一块将是剩余秒数的模量. 例如,对于 40 秒的视频和每个块 15 秒的分频器: 第一个CMT
..
我在使用AVPlayer.seekToTime进行搜索时遇到问题,我想在以下的scrollViewDidScroll方法中寻找时间索引: func scrollViewDidScroll(scrollView: UIScrollView) { let offsetTime = scrollView.contentOffset.y * 0.1 self.playerContr
..
每次我尝试从视频资产生成静止帧时,都会在0.000 ..秒的时间生成该静止帧.我可以从我的日志消息中看到这一点.好消息是,我可以在0.000 ..的时间获取图像,以显示在名为"myImageView"的UIImageView中.我以为问题是未设置AVURLAssetPreferPreciseDurationAndTimingKey,但是即使在我知道如何做到这一点之后,它仍然无法正常工作. 这
..
这应该很简单.我有一个AVPlayer播放视频文件,我希望能够跳到特定时间,但是在理解CMTime的工作方式时遇到了一些麻烦. 我需要指定时间(以秒为单位).例如:如果我想跳到第二个10.8,我想做这样的事情: [self.avPlayer.currentItem seekToTime:CMTimeMakeWithSeconds(10.8, 1]; 但是我没有得到想要的结果.
..
如何将我的当前播放时间增加5秒? 实际上这是我的代码: CMTime currentTime = music.currentTime; 我不能使用CMTimeGetSeconds(),因为我需要CMTime格式. 谢谢您的回答... 编辑:如何为CMTime设置变量? 解决方案 这是一种方法: CMTimeMakeWithSeconds(CMTimeGetSe
..
我有一个小整数值,我想将其转换为CMTime. 问题是 CMTime(值:_,timeScale:_) 或 CMTimeMakeWithSeconds(值:_,timeScale:_) 将始终返回下限,因此时间始终等于0.0 seconds let smallValue = 0.0401588716 let frameTime = CMTime(Int64(sm
..
我想从视频中获取每一帧的缩略图,然后将这些图像保存在可变图像阵列中。 我想用这些图像作为动画。 NSURL * assetURL = [self.asset valueForProperty:ALAssetPropertyAssetURL]; NSDictionary * assetOptions = nil; AVAsset * myAsset = [[AVURLAss
..
我想知道如何从时间戳中为 AVAssetExportSession 设定时间范围,例如: NSTimeInterval start = [[NSDate date] timeIntervalSince1970]; NSTimeInterval end = [[NSDate date] timeIntervalSince1970]; 我用于导出会话的代码如下:
..
我正在尝试使用AVFoundation播放视频。我使用以下代码作为一个按钮,使播放前进一帧。 间歇性地工作,在一些执行中它会做正确的事情并推进一帧,但是大部分时间我都要按3或4次按钮才会前进一帧。 这让我认为这是某种精确问题,但是我无法弄清楚它是什么。每次运行时,新的CMTime似乎都会以相同的数量前进。 我的另一个理论是它可能是由于currentTime没有被设置为精确的我的帧
..
我正在使用 AVAssetWriterInputPixelBufferAdaptor 为视频编写一些帧,以及行为w.r.t.时间不是我所期待的。 如果我只写一帧: [videoWriter startSessionAtSourceTime:kCMTimeZero]; [adapter appendPixelBuffer:pxBuffer withPresentationTime:
..
我见过一些示例 of CMTime (三个单独的链接),但我仍然没有得到它。我正在使用AVCaptureSession和AVCaptureVideoDataOutput,我想设置输出的最大和最小帧速率。我的问题是我只是不理解CMTime结构。 显然CMTimeMake(value,timeScale)应该每隔1 / timeScale秒给我一个值帧,总值/ timeScale秒,或者我错了?
..