avfoundation相关内容
我必须使用基于帧的方法将视频转换为带音频的慢动作.以下链接是很多帮助,这是反向-AVAsset-高效 在解决方案中,我可以更改缓冲区的时间戳并获得慢动作视频. 用于videoSamples中的示例{varpresentationTime = CMSampleBufferGetPresentationTimeStamp(样本)//更改时间戳以实现慢动作presentationTime.tim
..
我有一个mp3声音,我想只设置一次平移,音高/采样率和音量控制(不实时更改)来播放.我目前正在使用AVAudioPlayer,它可以工作,但是速率设置执行时间扩展,而不是执行采样率更改,其中较低的值会使声音变慢和变调,而较高的值会使声音变快和变调.音调更高(有点像磁带速度).例如,当您的声音实际上是44100时,将采样率设置为88200 HZ,则它将以200%的速度/音高播放.AVAudioPla
..
我正在研究一个项目,该项目涉及使用 MTAudioProcessingTap 将音频从 AVPlayer 视频播放器对象流式传输到 libpd .对于拍子的处理循环,我使用了 PdAudioUnit 的渲染回调代码作为指导;但是我最近意识到, libpd 所期望的音频格式与来自抽头的音频不同—也就是说,抽头在传入的AudioBufferList中提供了两个非交织音频数据的缓冲区,而libpd需要交
..
我使用 ffmpeg 在 Mac OS X 上使用 avfoundation ,在上使用 x11grab 进行屏幕录像 Windows 上的Linux 和 gdigrab . 生成的文件应与现代Web浏览器( )兼容,因此我使用H.264编解码器并请求YUV 4:2:0平面像素格式. 在 Mac OS X 上,(不同于 Linux 和 Windows ),我收到以下日志记
..
我目前有一个自行开发的框架(MySDK)和一个使用MySDK的iOS应用(MyApp). 在MySDK内,我有一个MySDK类(扫描仪),用于处理设备相机视频输出中的图像. 这是我的代码示例: Scanner.swift class扫描器:NSObject,AVCaptureVideoDataOutputSampleBufferDelegate {var captureDev
..
我在SwiftUI中有一个URL列表.当我点击一个项目时,我会显示一个全屏视频播放器.我有一个 @EnvironmentObject 处理一些查看器选项(例如,是否显示时间码).我还具有一个显示和隐藏时间码的切换开关(在此示例中仅包括了该切换开关,因为时间码视图无关紧要),但是每次更改该切换开关时,都会再次创建该视图,从而重新设置了 AVPlayer .这是有道理的,因为我是在视图的初始化程序中创
..
我正在使用AVFoundation通过以下设置录制音频.录制成功后,我需要向用户显示录制文件的波形.谁能帮助我完成这项任务? 这是我的录音机设置: let recordSettings =[AVNumberOfChannelsKey:1AVFormatIDKey:kAudioFormatOpus,AVSampleRateKey:24000.0]作为[String:Any] 解决方案
..
我编写了使用 ffmpeg 通过MAC的内置网络摄像头捕获视频的代码. 在本地计算机上,代码可以正常工作.但是,我构建了代码的docker容器,并尝试运行它,但出现以下错误: 错误:命令失败:ffmpeg -f avfoundation -framerate 30 -i"0&"-target pal-vcd -vf scale = 640x480 -flags + global_header
..
我从TrueDepth相机获取深度数据,并将其转换为提取CVPixelBuffer中的像素. 让depthDataMap:CVPixelBuffer = ...let width = CVPixelBufferGetWidth(depthDataMap)//640let height = CVPixelBufferGetHeight(depthDataMap)//480let bytesPerR
..
我的屏幕破裂了,并且手机没有声音功能.我使用相机录制了视频.当我从 didFinishPickingMediaWithInfo 中选择视频网址时,我尝试检查视频是否有声音,但 player.currentItem?.asset.tracks 说视频确实有声音(设备和录制的视频肯定没有声音. func imagePickerController(_选择器:UIImagePickerControl
..
我正在开发使用 presentationDimensions的相机应用(...)API : 如果#available(iOS 13.0,*){让leftVideo = self.formatDescription.presentationDimensions()让rightVideo = other.formatDescription.presentationDimensions()//...}
..
问题:我正在尝试从AVCaptureVideoDataOutput的CMSampleBuffer通过CIDetector获取面部特征.在执行程序时,十分之九的程序崩溃,并且只有在其正常运行后才会崩溃. 预期输出:运行时不会崩溃,并显示"Happy"(快乐)进行特征检测. 代码: func captureOutput(_输出:AVCaptureOutput,didOutput sam
..
我正在尝试将相机供稿流式传输到MTKView中,以将某些CI过滤器应用于实时流.初始化捕获会话并布局MTKView之后,以下是我设置金属(metalView是MTKview)的方法: func setupMetal(){metalDevice = MTLCreateSystemDefaultDevice()metalView.device = metalDevice//询问时写metalVie
..
我在Swift Playground中使用带有SwiftUI的AVFoundation的AVAudioEngine,并使用MVVM作为体系结构.但是,如果我将结构分离到文件中,则会收到两个错误:执行被中断,原因:信号SIGABRT.和在范围内找不到文件.所有工作的唯一方法是在同一个文件中使用它们. 这是操场上的基本代码,我称之为MusicCreatorView. 导入SwiftUI导入Pl
..
我能够汇编一个最小的Swift屏幕快照演示来调试另一件事,但某些事情使我感到烦恼- AVFoundation 从未调用我的委托进行录制.实际上他们都不是. 代码很简单: class ExampleRecorder:NSObject,AVCaptureFileOutputRecordingDelegate {私人var会话:AVCaptureSession?私人var fileOut:AV
..
我正在尝试使用自定义相机开发应用程序,用户可以在其中添加滤镜或标签(例如在TextCamera应用程序中)并分享社交Feed.但是我发现了我的第一个问题. 我使用AVCaptureVideoPreviewLayer向用户显示预览,拍摄照片并将其传递给UiImageView中的另一个视图控制器,但是第二张图片比第一张大. 我尝试使用此功能调整图片大小: func resize(ima
..
我像这样实例化AVPlayerItemVideoOutput: 让videoOutput = AVPlayerItemVideoOutput(pixelBufferAttributes:[String(kCVPixelBufferPixelFormatTypeKey):NSNumber(value:kCVPixelFormatType_32BGRA)]) 并像这样检索pixelBuffers
..
当某些过程开始使用相机时,我需要接收一个事件.我通过CMIOObjectGetPropertyData做到了这一点.但是它不能正常工作,正确的值只是第一次访问它. 我也尝试使用CMIOObjectAddPropertyListenerBlock,但是他没有从我这里使用它.请告诉我,我做错了什么?我将非常感谢. 同时(1){UInt32值= 0;UInt32 valuePropertySiz
..
我有麻烦了.我想在我的应用程序中播放远程mp3文件.但是mp3文件要花费很多时间(大约5-6分钟)才能播放.为什么 ? 任何人都可以建议我该怎么办? 导入UIKit导入AVFoundation类TestViewController:UIViewController,AVAudioPlayerDelegate {var player:AVAudioPlayer = AVAudioPlayer
..
我正在将音频库移植到iOS,以便播放从回调提供的音频流.用户提供了一个返回原始PCM数据的回调,并且我需要播放此数据.而且,该库必须能够一次播放多个流. 我认为我需要使用AVFoundation,但似乎AVAudioPlayer不支持流音频缓冲区,并且所有流文档都可以找到直接来自网络的数据.我应该在这里使用什么API? 提前谢谢! 顺便说一句,我不是通过Swift或Objecti
..