cmsamplebufferref相关内容
这里的目标是通过AVCaptureDataOutput通过视频创建一个mp4文件,并通过CoreAudio录制音频.然后将两者的CMSampleBuffers发送到具有AVAssetWriterInput(AVMediaTypeVideo)和AVAssetWriterInput(AVMediaTypeAudio)的AVAssetWriter 我的音频编码器将AudioBuffer复制到新的C
..
在我正在开发的应用程序中,我们正在捕获需要具有4:3纵横比的照片,以最大程度地捕获我们捕获的视野.到目前为止,我们一直使用AVCaptureSessionPreset640x480预设,但是现在我们需要更大的分辨率. 据我所知,仅有的另外两种4:3格式是2592x1936和3264x2448.由于这些对于我们的用例来说太大了,我需要一种减小它们尺寸的方法.我研究了很多选项,但没有找到一种方法
..
这是一个将CMSampleBuffer转换为UIImage的函数(Apple文档中的代码) func imageFromSampleBuffer(sampleBuffer: CMSampleBuffer) -> UIImage { // Get a CMSampleBuffer's Core Video image buffer for the media data var
..
我正在尝试在使用AVFoundation的AVCaptureVideoDataOutput录制的视频上添加水印/徽标. 我的类设置为sampleBufferDelegate,并接收CMSamplebufferRefs.我已经对CMSampleBufferRefs CVPixelBuffer应用了一些效果,并将其传递回AVAssetWriter. 左上角的徽标是使用透明PNG交付的. 我遇到的
..
场景: 我正在编写 iOS应用尝试解码videoFile.mp4.我正在将 AVAssetReaderTrackOutput 与 AVAssetReader 来解码视频文件中的帧.这很好.我得到每个& videoFile.mp4中的每一帧基本上都使用以下逻辑作为核心. 代码: AVAssetReader * videoFileReader; AVAssetReaderTrackOut
..
这困扰了我一段时间.我有视频转换功能,可将视频转换为".mp4"格式.但是,某些视频但并非全部视频都发生崩溃. 这是崩溃日志 *** Terminating app due to uncaught exception 'NSInvalidArgumentException', reason: '*** -[AVAssetWriterInput appendSampleBuffer:]
..
我在iOS文档中注意到 AVAssetWriterInput 您可以为 outputSettings传递 nil 字典,指定不应重新编码输入数据。 用于编码媒体的设置附加到输出。传递nil以指定不应重新编码附加的样本。 我想利用此功能传入流原始H.264 NAL,但我无法将我的原始字节流调整到 CMSampleBuffer ,我可以将其传递到AVAssetWriterInput的 ap
..
我正在尝试根据用户的输入裁剪并缩放 CMSampleBufferRef ,比率,以下代码需要CMSampleBufferRef,将其转换为CVImageBufferRef并使用CVPixelBuffer根据其字节裁剪内部图像。此过程的目标是使用裁剪和缩放的CVPixelBufferRef写入视频 - (CVPixelBufferRef)modifyImage:(CMSampleBuffe
..
我需要从CMSampleBufferRef的未压缩图像数据中获取 UIImage 。我正在使用代码: captureStillImageOutput captureStillImageAsynchronouslyFromConnection:connection completionHandler:^(CMSampleBufferRef imageSampleBuffer,NSErro
..
我想用AVSampleBufferDisplayLayer显示一些CMSampleBuffer,但是在显示第一个样本后它会冻结。 我从AVCaptureVideoDataOutputSampleBuffer委托中获取样本缓冲区: - ( void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer
..
我正在使用AVFoundation捕获和录制音频。有些问题我不太明白。 基本上我想从AVCaptureSession捕获音频并使用AVWriter写入它,但是我需要在时间戳中移动一些CMSampleBuffer我从AVCaptureSession获得。我阅读了CMSampleBuffer的文档。我看到两个不同的时间戳术语:'presentation timestamp'和'output pr
..
我正在尝试在 AVCaptureAudioDataOutputSampleBufferDelegate 中创建captureOutput返回的CMSampleBuffer副本。 我遇到的问题是我的框架来自委托方法 captureOutput:didOutputSampleBuffer:fromConnection:在我将它们保留在 CFArray 很长一段时间。 显然,我需要创建传入缓
..
我正在使用AVSampleBufferDisplayLayer来显示以h.264格式通过网络连接的CMSampleBuffers。视频播放流畅且工作正常,但我似乎无法控制帧速率。具体来说,如果我在AVSampleBufferDisplayLayer中每秒排队60帧,它会显示这60帧,即使视频以30 FPS记录。 创建样本缓冲区时,可以通过将定时信息数组传递给CMSampleBufferCre
..
如何将CMSampleBufferRef转换为NSData? 我设法获取 MPMediaItem 的数据按照Erik Aigner关于此主题的回答,但数据类型为 CMSampleBufferRef 。 我知道CMSampleBufferRef是一个结构,在 CMSampleBuffer参考,但我不认为我完全理解它是什么。没有一个CMSampleBuffer函数似乎是一个明显的解决方案。
..
我正在使用AVFoundation并从 AVCaptureVideoDataOutput 获取样本缓冲区,我可以使用以下命令将其直接写入videoWriter: - (void)writeBufferFrame:(CMSampleBufferRef)sampleBuffer { CMTime lastSampleTime = CMSampleBufferGetPresentationT
..
我从 CMSampleBufferRef 视频缓冲区每隔N个视频帧获取 UIImage ,如: - (void)imageFromVideoBuffer:(void(^)(UIImage * image))completion { CMSampleBufferRef sampleBuffer = _myLastSampleBuffer; if(sampleBuffer!= nil)
..