audio-streaming相关内容
我在Linux盒子上使用darkice( http://darkice.org )来捕获音频提要从消防部门的无线电系统.它运行良好,我可以将流转发到Icecast2( https://icecast.org )服务器,以便消防员可以听现场广播. 我的下一个目标是实际将无线电传输记录到文件中. 消防部门并不总是那么忙,所以我正在捕捉的溪流有大量的寂静(嘶嘶声).我的目标是以某种方式捕获和
..
我有一个Java应用程序,该应用程序记录来自混音器的音频并将其存储在字节数组中,或将其保存到文件中.我需要的是同时从两个混音器中获取音频,并将其保存到音频文件中(我正在尝试使用.wav).问题是我可以得到两个字节数组,但是不知道如何合并它们(通过“合并",我并不是说串联).具体来说,这是一个通过USB调制解调器处理对话的应用程序,我需要将其记录下来(流是每个讲话者的声音,已经被录音以单独记录).
..
我要创建语音聊天.我的后端服务器可以在Node.js上运行,并且客户端和服务器之间的几乎每个连接都使用socket.io. websocket是否适合我的用例?与P2P相比,我更喜欢通信客户端->服务器->客户端,因为我希望甚至有1000个客户端连接到一个房间. 如果websocket没问题,那么哪种方法最好将AudioBuffer发送到服务器并在其他客户端上回放?我是那样做的:
..
我正在尝试使用Google的 Oboe 库为每个麦克风打开2个麦克风流: oboe :: AudioStreamBuilder构建器;builder.setChannelCount(channelCount)-> setDirection(isInput?oboe :: Direction :: Input:oboe :: Direction :: Output)-> setSharingMo
..
我目前正处于冒险之中,我的精神ity可危,我试图在Web应用程序中简单地播放mp3文件.此mp3会逐块加载,以使体验更加灵敏. 即使MediaSource API的文档非常引人注目,几乎是暴力的,有用的,并且有数百个经过充分解释的示例为救赎铺平了道路,但我发现自己无法使一切正常工作. 我面临的最后一个问题是寻求功能.我使用此功能的简单想法是简单地杀死所有活着的东西,将所有东西烧毁并重新
..
似乎我想将要在我的网站上流式传输的音频转换为audio/mp4; codecs="mp4a.40.2". 使用 ffmpeg-cli-wrapper ,我正在使用此命令转换上传的音频文件在这里: ffmpeg -i /tmp/input.any -acodec aac -b:a 256000 /tmp/output.aac 在客户端上,我正在像这样创建SourceBuffer:
..
我需要在SWIFT中使用AV Player来实现流音乐播放器 该音乐文件存储在服务器中.请帮助我一个人.如何实现这个 解决方案 据此: http://www.techotopia.com/index.php/IOS_8_Video_Playback_using_AVPlayer_and_AVPlayerViewController 您可以在ViewController中添加以下
..
(这是的后续问题“>这个.) 我想异步读取无尽的音频流,以便对获得的数据进行JIT分析.使用WebClient对象的DownloadDataAsync方法,我可以轻松启动下载,请参见以下Win窗体项目: Imports System.Net 'For WebClient Public Class Form1 Private WithEvents c As New W
..
我需要Internet上的实时流音频.在互联网上快速搜索,我决定使用Gstreamer.我已经成功地使用udpsink进行了流传输,但是它只能在LAN上运行.我用tcpserversink进行了测试,但无法正常工作: 服务器(IP:113.160.166.87) gst-launch-1.0 filesrc location="G:/Project/Gstreamer/TestCont
..
这是下一个和上一个按钮的代码 - (IBAction)nextPressed:(id)sender { Previousbutton.enabled=YES; Nextbutton.enabled = NO; NSLog(@"TOTAL TRACK:%d",TotalTrackCount); // TrackCount = TotalTrackCount
..
我正在连接到一个套接字,该套接字正在以1024字节的块传输音频wav文件,我正在寻找一个快速播放该文件的库.只是想知道是否有. 我的代码的当前状态是这个. import UIKit import SwiftSocket class ViewController: UIViewController { let port : UInt32 = UInt32(8190) let host
..
我有.NET Core控制台应用程序,它充当UDP服务器和UDP客户端 通过接收音频数据包的UDP客户端. UDP服务器,通过发送每个接收到的数据包. 这是控制台应用程序的示例代码: static UdpClient udpListener = new UdpClient(); static IPEndPoint endPoint = new IPEndPoint(IP
..
我正在尝试使用icecast服务器设置实时互联网广播电台,并希望我的视频流在所有现代浏览器中都能正常工作.我的客户仅产生.ogg流.所有浏览器均不播放.ogg流.例如,我设置的.ogg流在chrome中起作用,但在IE中不起作用.我应该如何使其在所有浏览器中运行? 有没有一种方法可以将.ogg流实时转换为.mp3或任何其他格式 在浏览器中嵌入了可以播放.ogg流的音频播放器. 或者其
..
我正在使用MPMoviePlayerViewController从URL"http://ios-audio.q-music.be/audio.m3u8"中流式传输音频. 它的演奏很好. 但是,当我单击“主页"按钮时,该应用程序将进入后台并停止流式传输. 当我再次启动该应用程序时,它将再次开始流式传输. 当应用程序进入后台时,如何使我的应用程序使用MPMoviePlayerController
..
如何将元数据标头发送到Icecast服务器?我正在AAC中进行录制,并通过ios将其流式传输到icecast服务器,但文件显示已损坏.我怀疑需要添加元数据才能播放文件.如何发送元数据?我应该以字符串形式发送吗?应该是什么格式? 解决方案 流正常运行不需要元数据.如果您的数据已损坏,则说明您编码错误或发送了错误的Content-Type标头. 话虽这么说,一旦您的流正常工作,如果您想发
..
我需要一个IOS应用程序,用户将启动该应用程序,记录音频语音(通过设备麦克风),然后将其广播到同一网络上的其他用户,所有这些都必须通过无线连接进行( WIFI). 我对可能的解决方案进行了一些研究,还尝试了通过HTTP URL进行音频流传输,但这是不可行的,并且还涉及互联网. 我正在寻找您的意见,如果可行,那么正确的方法是什么(我应该寻找哪些库和API) 我不是iOS开发的新手,
..
我正在使用android AudioStream在wifi上的两个android设备之间进行双向通信.有什么办法可以同时在多个设备上播放音频消息? 是否正在使用多个AudioStreams(一种用于每个设备),一种可能的方式?我需要向40位接收者广播.如果我使用多个AudioStreams,消息是否会延迟? 您知道其他解决方案吗? 解决方案 我认为最简单的方法是使用AudioG
..
我无法从HTTP Live Stream(使用m3u,m3u8播放列表文件)获取iPhone上的歌曲标题和作曲家名称.我已经尝试从此网站 tempomix广播上获取它.这是流媒体的链接- http://stream21.group-network.net:9012 我正在尝试使用下一个代码: AVPlayerItem *playerItem = [AVPlayerIte
..
有一些标准方法可以向流媒体广播服务询问当前播放的歌曲吗? 我目前对每个电台以不同的方式进行操作,例如(SomaFM): $wg=join("\n",`wget -q -O - https://somafm.com/secretagent/songhistory.html`); $wg=~/\(Now\).*>([^([^
..
我不确定音频单元是否可以在iPhone上的流式音频方案中用作编解码器. 我已经在各个地方阅读了可以完成的文章,但是我还没有看到任何示例或适当的文档.相反,我发现发布的大多数应用程序都使用了ffmpeg和libmms. 感谢您能给我的任何帮助. 解决方案 再来看一遍,似乎iOS仅允许内置音频单元,与Mac OS X不同.内置音频单元在“适用于iOS的音频单元托管指南"->“使用特
..