audio-streaming相关内容
我想在流缓冲区为空时重新连接到服务器. 如何在 AVPlayer 或 AVPlayerItem 缓冲区为空时触发方法? 我知道有 playbackLikelyToKeepUp、playbackBufferEmpty 和 playbackBufferFull 方法来检查缓冲区状态,但这些不是回调. 是否有任何回调函数,或者我应该添加任何观察者? 解决方案 您可以为这些键添加
..
我正在以小块的形式从服务器接收 PCM 音频数据,并将它们存储在一个数组中.现在我想使用一些 HTML5 功能按顺序播放这些音频块而没有间隙.我认为“可能"的解决方案有两个选项: 带有 数据 URI 的 HTML5 音频标签网络音频 API 在我研究这些选项时,请向我建议任何其他选项或对我正在查看的两个选项的看法.虽然跨平台解决方案将是最好的,但我可以满足于 Chrome 唯一的解决
..
我想将实时视频从 iPhone 传输到另一台设备(桌面浏览器或另一台 iPhone,例如点对点). 注意:目前不是一对多,只是一对一.音频可以是流的一部分,也可以通过 iPhone 上的电话通话. 我能想到的四种方法... 在 iPhone 上捕获帧,发送帧到媒体服务器,有媒体服务器发布实时视频使用主机网络服务器. 在 iPhone 上捕获帧,转换为图像,发送到 https
..
我想要的是将 mp3 文件保存在 Firebase 存储上,然后将其流式传输到 Android 设备.Firebase 上的所有教程都讨论了图像文件的上传和下载. 如果有任何其他云比 Firebase 更容易为 android 存储和流式传输音频,请提出建议. 解决方案 Firebase 提供 StreamDownloadTask,正如 Mike 所建议的,用于获取 InputS
..
是否可以使用 HTML5 播放喊叫/冰播流? 如果是这样,我应该如何实施? 解决方案 2020 更新 现代浏览器不需要任何特殊处理或服务器端解决方法来播放音频.只需使用直接链接到一个或多个流源(不是播放列表)的音频标签:
..
我找到了一些 Android RTMP 库(例如:http://rtmpdump.mplayerhq.hu/). 问题是没有关于我们如何使用它的准确文档. 就我而言,我有一个简单的 RTMP 实时音频流(例如:rtmp://myserver/myapp/myliveaudio). 在我的 Android 应用中阅读它的最简单方法是什么? 拜托,我不想要链接:我需要一些代码或
..
是否可以使用 html5 播放shoutcast(或某些)互联网广播流? 所以我有下一个代码:
..
基本上,我现在想要做的是使用安卓设备作为 A2DP 接收器,当配对建立时,安卓播放从发射器接收到的声音.我担心如果我使用 STP 配置文件,可能会导致流式传输延迟.所以,我想使用 A2DP 但这是否可以使用 Android 设备作为 A2DP 的接收器?以及怎么做? 解决方案 从 Android L 开始,BlueDriod 堆栈确实支持 A2DP 接收器,但默认情况下是禁用的. 要
..
我听到了一些与此相关的相互矛盾的报道.我想要做的是从 URL 流式传输 mp3 文件.我已经做了数小时的研究,但我找不到任何关于如何做到这一点的好指南,甚至找不到我应该使用什么样的音频播放器. 有些朋友告诉我 AVPlayer 可以流式传输 mp3,但 Apple 文档说它不能.我已经倾倒了 Matt Gallagher 的音频流媒体 (http://www.cocoawithlove.co
..
我正在尝试播放一个 MP3 文件,该文件从之前的 UIView(存储在 NSURL *fileURL 变量). 我正在初始化一个 AVPlayer: player = [AVPlayer playerWithURL:fileURL];NSLog(@"创建的玩家:%d",player.status); NSLog 打印 Player created:0, 我认为这意味着它还没有准备好播放.
..
我目前正在尝试将实时麦克风音频从 Android 设备流式传输到 Java 程序.我开始在两个 Android 设备之间发送实时音频以确认我的方法是正确的.在接收设备上几乎没有任何延迟,可以完美地听到音频.接下来,我将相同的音频流发送到一个小型 Java 程序,并验证数据是否也正确发送到这里.现在我想做的是对这些数据进行编码,并以某种方式在运行 Java 程序的服务器上播放它.我更愿意在使用 HT
..
我想记录用户的网络摄像头和音频并将其保存到服务器上的文件中.然后这些文件就可以提供给其他用户了. 我在播放时没有问题,但是在录制内容时遇到了问题. 我的理解是 getUserMedia .record() 函数尚未编写 - 到目前为止只为它提出了建议. 我想使用 PeerConnectionAPI 在我的服务器上创建对等连接.我知道这有点 hacky,但我认为应该可以在服务器上创
..
请查看我用于流式传输 Shoutcast 流的代码,它适用于一个 URL,但不适用于另一个. 这个有效: Uri myUri = Uri.parse("http://fr3.ah.fm:9000/"); 但不是这个: Uri myUri = Uri.parse("http://someOtherURL"); SimpleMusicStream.java import android
..
是否可以使用 PHP 从音频流中提取曲目信息?我已经做了一些挖掘,我能找到的最接近的函数是 stream_get_transsports,但我的主机不支持通过 fsockopen() 进行 http 传输,所以我必须做更多的修改以查看该函数返回的其他内容. 目前,我正在尝试从 AOL 流中提取艺术家和曲目元数据. 解决方案 这是一个 SHOUTcast 流,是的,这是可能的.它与 I
..
我正在尝试录制音频 &存储到 SD 卡以及发送到服务器.当我尝试播放录制的声音时,它正在播放,但不是我录制的.如果我录制 10 分钟的声音,它将播放 4 分钟,即有人按下了带有一些嘈杂声音的快进按钮.我不明白我哪里出错了.谁能告诉我如何解决这个问题(应该播放我录制了多少,即录制了 10 分钟,然后应该只播放 10 分钟). 这是代码..抱歉发布批量代码.. public class Aud
..
我创建了一个从客户端接收声音的服务器应用程序,然后我广播这个以字节形式存储的声音并将字节发送回连接到服务器的客户端.现在我目前只使用一个客户端进行测试,客户端正在接收回音,但声音一直在断断续续.有人可以告诉我我做错了什么吗? 我想我明白为什么声音播放不流畅的部分原因,但不明白如何解决这个问题. 代码如下. 客户: 向服务器发送语音的部分 public void capt
..
我正在开发一个 android 应用程序.我想完成以下功能.我将使用手机的内置麦克风进行录音,同时我希望通过手机的扬声器或耳机播放录制的音频.可行吗?如果是,请帮助我. 解决方案 这是一个简单的录制和播放应用程序. 使用 Android AudioRecord 和 AudioTrack, 设计: 将录制的音频写入缓冲区并从同一缓冲区播放,此机制在按钮控制的循环中运行(使用 A
..
我正在另一台 PC 上实现从 MIC 到 Java 服务器的实时流式传输.但我只听到白噪音. 我已经附加了客户端和服务器程序 客户端:导入 java.io.IOException;导入 java.net.DatagramPacket;导入 java.net.DatagramSocket;导入 java.net.InetAddress;导入 java.net.SocketException;
..
我想录制现场音频并播放它.就用户界面而言,该应用程序只有三个按钮:一个用于开始录制和流式传输,一个用于播放预先录制的文件,最后一个用于停止当前任务(录音/播放).为此,我分别使用了 AudioRecord 和 AudioTrack 类来进行录音和播放.我的程序看起来像.... /*** @作者阿米特**/ public class AudioRecorder extends Activit
..
我需要在我的应用程序中播放来自远程服务器的音频文件.当我使用 localhost 服务器(使用 WAMP)进行测试时,我可以玩.当服务器提供的相同文件不起作用时..文件无扩展名,内容为MP3 String fileUrl = "http://192.168.1.131/myproject/songs/xyz";String url = "http://myserver/songs/xyz";//
..