http-live-streaming相关内容
我正在尝试在v3 Google Cast自定义接收器应用程序上运行多音频HLS流.流的主播放列表是指几种具有不同分辨率的视频片段以及两个替代音轨: #EXTM3U #EXT-X-MEDIA:TYPE=AUDIO,GROUP-ID="aac",LANGUAGE="de",NAME="TV Ton",DEFAULT=YES, AUTOSELECT=YES,URI="index_1_a.m3u8"
..
问题 我有一个从IP摄像机流到HLS的服务器(nginx-rtmp-module). 我想将实时流嵌入到流行的浏览器中:Chrome,Firefox和IE. 该流在某些桌面浏览器上不起作用. 测试播放器: https://content.jwplatform.com/previews/KCpvutTz-FfTLdraP 我尝试过的 经过测试的设备和浏览器: PC
..
我正在尝试使用node.js流式传输HLS内容.而且某种程度上它是行不通的.如果有人帮助我,那将会有很大的帮助. 问题:- 试图从node.js提供HLS内容(不是实时流,而是一组.ts文件和.m3u8播放列表 ,或VOD内容) 文件夹结构 stream_test |--- app.js |--- node_modules |--- streamcontent |
..
如何从http live流m3u8文件中提取mp4?我在下面尝试了此命令: ffmpeg -i {input file} -f rawvideo -bsf h264_mp4toannexb -vcodec copy out.mp4 我遇到了这个错误: [NULL @ 0000000002f07060]数据包头未包含在全局额外数据,损坏的流或无效的MP4/AVCC比特流中,无法使用编
..
我希望在HLS和MPEG Dash之间转换.我无法访问原始的完全串联的视频文件,只能访问各个HLS段. 在向MPEG Dash进行这种转换时,我需要为Dash清单.mpd文件提供一个初始化部分. 我的问题是: Dash视频初始化段的结构是什么? 如何在不需要原始完整文件的情况下生成/创建一个文件? 也许一个解决方案将涉及使MP4Box将'.ts'HLS段转换为可自动初始化
..
我目前有一种可行的方法来获取实时流,并在其仍处于实时状态时开始在本地下载. ffmpeg -i source_hls.m3u8 -c copy output.mkv -y 问题是我实际上并不想保存全部内容,我只是定期在output.mkv命令上运行另一个命令来创建一部分实时流的剪辑. 我想知道是否可以将output.mkv文件的长度限制为60秒,因此,如果流超过1分钟,它将截断旧
..
我有一个用于处理流式视频m3u8文件的后端api(使用express). http://localhost:3000/api/stream.m3u8 此终结点仅适用于正确的用户token. 路由器 router.get('/api/stream.m3u8', controller.stream); 控制器 exports.stream = function(req,
..
如何使用Exoplayer,ExoMedia或其他播放器启用HLS格式的Vimeo视频中嵌入的字幕,以及如何选择这些字幕? 在iOS中,该视频已经在本地提供了字幕选项,但是在Android中,我找不到实现该字幕的方法. 解决方案 这很好! TrackGroupArray trackGroups = mappedTrackInfo.getTrackGroups(rendererInde
..
我有问题。 我想通过网络摄像头使用ffmpeg进行实时流式传输。 我启动ffserver,它开始工作。 从另一个终端启动ffmpeg使用此命令 进行流式传输,并且可以正常工作: sudo ffmpeg -re -f video4linux2 -i / dev / video0 -fflags nobuffer -an http:// localhost:8090 / fee
..
嗨,我正在将hls流作为hls流重播 SETLOCAL :循环 ffmpeg -thread_queue_size 32768 -i“ http://xx/636.m3u8” -f hls -hls_time 5 -hls_list_size 5 -hls_allow_cache 0 -hls_flags delete_segments -segment_list_flags +
..
我正在使用来自示例GitHub项目的示例自定义接收器,并遇到了一个 根据传递给 onMediaError : 代码:“ session_error” 说明:“ LOAD_FAILED” 详细信息:null 我创建了一个我的接收者输出的完整日志的依据,因为内容受保护,所以只用“ mycompany.com”替换了我的域。 解决方案 我查看了您的日志,看来您的
..
我在我的应用中使用 CastCompanionLibrary-android 并遵循 CastVideos-android 可以在chromecast上播放实时流。现在,视频流在我的本地播放器上可以正常工作,但是在投射该视频时,它将无法播放。相反,它只是显示我注册的接收方应用程序名称,而在发送方应用程序上, VideoCastControllerActivity 打开时,只会显示一个不会结束的加载
..
我正在使用exomedia库通过hls播放视频。我想在视频流式传输时缓存视频。 AndroidVideoCache库可以很好地完成此工作,但是它不支持HLS。 解决方案 可以通过配置okhttp客户端来完成 Exomedia 库。 首先,我们需要使用setVideoUri(uri,renderbuilder)方法向emvideoview提供自定义renderbuilder。 为
..
根据此答案,以测试浏览器播放HLS视频的功能MIME 可以使用application / x-mpegURL 。 但是这种方法的问题在于,它为iPhone(实际上支持HLS)和Firefox for Android(不支持)返回可能 。尽管通过在Chrome和Firefox等桌面浏览器中返回一个空字符串可以很好地解决此问题。 是否有确切的方法来检查浏览器对HLS的支持? HTML5t
..
当HLS流准备好播放时,我正在生成可用音轨的列表.我可以很好地访问可用的音轨,但是我很难为每个音轨提取正确的“标题". 我正在使用 Apple的测试流有两个音轨.我用这个来提取曲目... availableAudioTrackList = [[NSMutableArray alloc] init]; AVMediaSelectionGroup *audioTracks = [playe
..
我正在使用一个iOS应用程序,该应用程序仅播放实时流HLS视频. 我的问题是我已经使用AVPlayer和视图控制器设置了Playground,启动视图控制器时一切正常,播放器也已启动,但流媒体未启动.该流是.m3u8类型,在Safari和Chrome浏览器中效果非常好. iOS不会在模拟器或真实设备上向我显示视频. 我还搜索了其他SO解决方案,但是它们都不对我有用. /* Bu
..
从iOS 10开始,Apple提供了下载HLS(m3u8)视频以供离线查看的支持. 我的问题是:是否只有在播放HLS时才可以下载HLS?或者,我们只在用户按下下载按钮并显示进度时才下载. 有人在Objective C版本中实现了此功能吗?实际上,我以前的应用程序是在Objective C中制作的.现在,我想增加对下载HLS而不是MP4的支持(以前我是为了离线查看而下载MP4).
..
在iOS 10中,Apple添加了离线HLS.他们在文档中提到: 重要提示:已下载的HLS资产以私有方式存储在磁盘上 捆绑格式.该捆绑包格式可能会随着时间的推移而变化,开发人员 不应尝试访问或存储捆绑包中的文件 直接使用,而应使用AVFoundation和其他iOS API来 与下载的资产进行交互. 似乎对这些文件的信息的访问受到限制.我正在尝试查找存储文件的大小.这是我的工作.下载完
..
尝试下载.m3u8视频文件( http://devimages. apple.com/iphone/samples/bipbop/bipbopall.m3u8 )使用AVAssetDownloadURLSession.当我在Xcode中运行代码时,出现错误: “错误域= AVFoundationErrorDomain代码= -11800 \"操作 无法完成\"UserInfo = {NSLo
..
根本问题 在iOS中搜索时,我们的视频缓冲很多.与我们的网络播放器相比,它的缓冲空间要大得多,后者可以将已经观看过的片段的副本保存在临时存储中. 所需的解决方案 在设备磁盘上本地缓存视频片段.我们可以缓存单个质量并始终重播它. 阻止者 我们找不到在AVFoundation/AVPlayer中执行缓存的方法. 我们尝试过的事情 使用AVPlayer拦截网络请
..