avfoundation相关内容

如何减小使用 UIImagePickerController 创建的视频的文件大小?

我有一个应用程序,允许用户使用 UIImagePickerController 录制视频,然后将其上传到 YouTube.问题是 UIImagePickerController 创建的视频文件很大,即使视频只有 5 秒长.例如,一个 5 秒长的视频是 16-20 兆字节.我想将视频保持在 540 或 720 质量,但我想减小文件大小. 我一直在尝试使用 AVFoundation 和 AVAs ..
发布时间:2021-12-02 18:37:02 移动开发

使用 AVFoundation AVPlayer 循环播放视频?

在 AVFoundation 中是否有一种相对简单的方法来循环播放视频? 我已经像这样创建了我的 AVPlayer 和 AVPlayerLayer: avPlayer = [[AVPlayer playerWithURL:videoUrl] 保留];avPlayerLayer = [[AVPlayerLayer playerLayerWithPlayer:avPlayer] 保留];avP ..
发布时间:2021-12-02 16:01:40 移动开发

让 iPhone 振动

iPhone如何设置震动一次? 例如,当玩家失去生命或游戏结束时,iPhone 应该会振动. 解决方案 来自 "iPhone 教程:检查 iOS 设备功能的更好方法": 有两个看似相似的函数都带有参数kSystemSoundID_Vibrate: 1) AudioServicesPlayAlertSound(kSystemSoundID_Vibrate);2) AudioSe ..
发布时间:2021-12-01 18:18:08 移动开发

如何将 UIImage 数组导出为电影?

我有一个严重的问题:我有一个带有多个 UIImage 对象的 NSArray.我现在想做的是从那些 UIImages 创建电影.但我不知道该怎么做. 我希望有人可以帮助我或向我发送代码片段,它可以执行我想要的操作. 编辑:供将来参考 - 应用解决方案后,如果视频看起来失真,请确保您捕获的图像/区域的宽度是 16 的倍数.经过数小时的搜索后发现在这里奋斗: 为什么我的 UIImages ..
发布时间:2021-12-01 17:15:00 移动开发

如何从 AVCaptureAudioDataOutput 播放音频样本缓冲区

我尝试制作的应用程序的主要目标是点对点视频流.(有点像使用蓝牙/WiFi 的 FaceTime). 使用 AVFoundation,我能够捕获视频/音频样本缓冲区.然后我发送视频/音频样本缓冲区数据.现在的问题是在接收端处理样本缓冲区数据. 至于视频样本缓冲区,我能够从样本缓冲区获取 UIImage.但是对于音频样本缓冲区,我不知道如何处理它以便我可以播放音频. 所以问题是如何处 ..
发布时间:2021-11-30 16:43:01 其他开发

尝试通过多点连接将音频从麦克风流式传输到另一部手机

我正在尝试通过 Apples Multipeer Connectivity 框架将音频从麦克风流式传输到另一部 iPhone.为了进行音频捕获和播放,我使用了 AVAudioEngine(非常感谢 Rhythmic Fistman' 的回答 问题是我可以在传输之前来回转换字节数组并从中播放声音(在同一部手机中),但不能在接收端创建 AVAudioPCMBuffer.有谁知道为什么转换在接收端 ..
发布时间:2021-11-30 16:37:32 移动开发

知道 AVPlayer 对象何时准备好播放

我正在尝试播放一个 MP3 文件,该文件从之前的 UIView(存储在 NSURL *fileURL 变量). 我正在初始化一个 AVPlayer: player = [AVPlayer playerWithURL:fileURL];NSLog(@"创建的玩家:%d",player.status); NSLog 打印 Player created:0, 我认为这意味着它还没有准备好播放. ..
发布时间:2021-11-30 16:33:51 移动开发

我想每秒调用 20 次 installTapOnBus:bufferSize:format:block:

我想实时显示麦克风输入的波形.我已经使用 installTapOnBus:bufferSize:format:block: 实现了,这个函数在一秒内被调用了 3 次.我想将此函数设置为每秒调用 20 次.在哪里可以设置? AVAudioSession *audioSession = [AVAudioSession sharedInstance];NSError* 错误 = 零;if (audio ..
发布时间:2021-11-30 16:27:10 C/C++开发

在音板应用程序上播放随机声音

我一直在尝试创建一个应用程序,当我按下按钮时,它会播放声音,但是当我再次按下同一个按钮时,它会播放不同的声音,我不介意它是否一直完全随机播放,或者如果它一次播放不同的声音但每次播放相同的顺序希望这是有道理的家伙 这是我拥有的所有代码: .h #import @interface ViewController : UIViewController@class AVAudioPlayer ..
发布时间:2021-11-30 16:14:21 移动开发

AVAudioPlayer 不播放任何声音

我正在开发一个需要使用 AVFoundation 框架播放一些声音的 iOS 应用程序.Xcode 4 中的工作区结构包含两个项目: 工作区 应用程序本身(主项目) 实用程序库 构建实用程序库后,会生成一个静态库,在主应用程序中用作框架. 因此,当尝试使用以下代码在主应用程序中播放声音时,它按预期工作. NSString *resourcePath = [[NSBundle ..
发布时间:2021-11-30 16:06:53 C/C++开发

iOS 背景音频无法播放

我有一个使用 CoreBluetooth 背景模式的应用程序.当某个事件发生时,我需要播放警报声.在前台一切正常,所有蓝牙功能在后台正常工作.我也让它在后台运行 UILocalNotification 来发出警报,但是我不喜欢这些缺少音量控制,所以想使用 AVAudioPlayer 播放警报声音. 我已将背景模式 audio 添加到我的 .plist 文件中,但无法正常播放声音. 我正 ..
发布时间:2021-11-30 16:04:05 C/C++开发

如何使用 Swift 在后台播放音频?

如您所见,我正在流式传输音频.但是当我按下主页按钮并退出时,应用程序流停止或我听不到.如何在后台继续流式传输并从锁定屏幕收听? ViewController.Swift 导入 UIKit导入 AVFoundation导入媒体播放器导入 Google 移动广告类视图控制器:UIViewController,GADInterstitialDelegate {@IBOutlet 弱变量 exit ..
发布时间:2021-11-30 15:57:04 移动开发

如何在纵向模式下通过 AVAssetExportSession 导出视频资产

当我通过 AVAssetExportSession 导出视频资产时,结果文件处于陆地空间模式.(通过 iTunes 抓取的文件-> 应用程序-> 文件共享-> 我的应用程序).如何以纵向模式导出视频资产(旋转它)? 解决方案 来自 iPhone 捕获设备的视频始终为横向,无论捕获时设备方向如何. 如果您想旋转视频,“简单"的解决方案是为导出会话的视频轨道分配一个变换. 在您的 ..
发布时间:2021-11-30 12:02:58 移动开发

ios 在另一个视频上覆盖 alpha 通道视频

我一直在尝试创建一个视频模板,该模板使用叠加在 mp4 视频和图像上的 alpha 通道视频. 这就是我需要创建视频的方式http://cdrglow.com./rendered/52b28a9f8d4f980f3a3f99c3_cb44bf2b/52b28a9f8d4f980f3a3f99c3_lrg_main_main.mov为了在另一个视频上叠加 alpha 视频,我使用了 AVAni ..
发布时间:2021-11-27 08:15:59 移动开发

在 iPhone X 上的 ARKit ARSession 期间从前置摄像头录制视频

我使用 ARSession 结合 ARFaceTrackingConfiguration 来跟踪我的脸.同时,我想从我的 iPhone X 的前置摄像头录制视频.为此,我使用 AVCaptureSession 但一旦我开始录制,ARSession 被打断. 这是两段代码: //人脸跟踪让配置 = ARFaceTrackingConfiguration()configuration.isLi ..
发布时间:2021-11-17 21:28:24 其他开发

从 CVPixelBuffer 创建一个 CMSampleBuffer

我从 ARSessionDelegate 得到一个 CVPixelBuffer: func session(_ session: ARSession, didUpdate frame: ARFrame) {frame.capturedImage//CVPixelBufferRef} 但我的应用程序的另一部分(我无法更改)使用 CMSampleBuffer. CMSampleBuffer ..
发布时间:2021-11-17 21:23:25 其他开发

如何将视觉框架坐标系转化为ARKit?

我正在使用 ARKit(带有 SceneKit)来添加虚拟对象(例如球).我通过使用 Vision 框架并在视觉请求完成处理程序方法中接收其更新的位置来跟踪真实世界对象(例如脚). let request = VNTrackObjectRequest(detectedObjectObservation: lastObservation, completionHandler: self.handl ..
发布时间:2021-11-17 21:22:49 其他开发

iOS 检测系统音量级别变化.私有API与否?AVSystemController_SystemVolumeDidChangeNotification

是否可以将 AVSystemController_SystemVolumeDidChangeNotification NSNotification 的监听(在 App Store 审核过程中)视为使用私有 API? 在我的应用程序中,我需要显示和更新当前音量级别.按下硬件音量按钮和 MPVolumeView 滑块中的音量变化后,音量指示器应更新. 我搜索了如何获取硬件音量按钮按下的通知 ..
发布时间:2021-11-17 00:10:22 其他开发

Apple Watch 可以使用 AVFoundation 吗?

Apple Watch 可以使用 AVFoundation 吗?更具体地说,AVAudioPlayer 和 AVAudioRecorder 可以工作吗? 我正在尝试制作一个应用程序,让您可以将声音录制到 Apple Watch 并使用音频播放器播放.谢谢 解决方案 尝试使用 WKAudioFilePlayerItem 吗?使用这个类播放音频,需要声明3个变量: var audioF ..
发布时间:2021-11-16 22:45:42 其他开发