live-streaming相关内容
如何使用 YouTube API 获取实时视频的当前观看人数? 我可以看到当前观看者的数量使用这样的视频供稿请求:https://gdata.youtube.com/feeds/api/charts/live/events/live_now?v=2&alt=json&inline=true&max-results=20&start-index=1 它会返回随机视频,但我需要获取特定视频
..
我是 Android 和套接字编程的新手.我想创建一个将视频从设备摄像头实时传输到 PC 的 android 应用程序.我首先要做的是从 PreviewCallback 参数中获取原始视频数据并将其转换为 RTP 数据包.我只是使用 JLibRTP 来做到这一点.关于传输数据包,我认为有一些相关的类:RtpPkt、RtpSession 和 RtpSocket. 这是我的浏览代码: Data
..
我对此进行了大量研究,但很沮丧,因为我觉得解决方案应该很简单,尽管我知道不会.理想情况下,我只想使用 node 来托管服务器,webrtc getusermedia 在本地客户端上获取实时流,并使用 socket.io 之类的东西将流发送到服务器,然后服务器将流广播到远程客户;好像它是一个简单的消息聊天应用程序. 再仔细想想,这种简单的方法似乎是不可能的,因为直播视频需要连续发送大量数据,这
..
我正在尝试使用 html5 视频标签播放 h264 编码的实时流.实时流由 wowza 媒体服务器广播,当访问 src 链接时,我得到一个有效的播放列表文件.尝试在 android chrome
..
我经常在 youtube 上直播,从昨天开始我经历了一件奇怪的事情: 我在我的网站中嵌入了直播 URL.它是 youtube.com/embed/ABCDE(普通嵌入链接).该链接用于显示当前直播,而不是特定视频.例如: 我正在直播,您可以在 youtube.com/embed/ABCDE 上观看.完成后,视频会获得自己的网址,例如 youtube.com/watch?v=FGHIJ.
..
我已经在互联网上搜索了几天,了解如何通过 WiFi 连接实现从一部安卓手机到另一部安卓手机的视频流功能,但我似乎找不到任何有用的东西.我查看了 android 开发人员的示例代码、stackoverflow、google、android 博客,但一无所获.我所能找到的只是某种用于流式传输的电话到桌面或桌面到电话的解决方案,但在我的实现中我无法借用任何东西. 我需要使用 arduino ADK
..
最近我有一项任务是将 ffmpeg 用作转码和流媒体工具.任务是将文件从给定格式转换为 MP4 并立即流式传输,方法是从标准输出中捕获它.到现在为止还挺好.流媒体适用于 android 标签的本机播放器以及 VLC 播放器.问题出在 Flash 播放器上.它给出了以下错误: NetStream.Play.FileStructureInvalid:Adobe Flash 无法导入文件结构无效的
..
我无法在 Amazon 上找到不同 EC2 实例类型的确切网络性能详细信息.相反,他们只是说: 高 中等 低 这到底是什么意思?我特别想知道每种实例类型的 Traffic-OUT 的确切数量. 我需要进行直播,我的流比特率为 240kbps.所以我需要知道哪种实例类型可以处理多少并发查看器. 解决方案 带宽按实例大小分层,这里有一个全面的答案: 对于 t2/m3
..
我需要获取 livestream.com 帐户的 RTSP 流.我正在阅读 livestream.com 的一些 API 文档,但他们有一个新网站 (new.livestream.com),我找不到任何关于此的 API 文档.有谁知道新的 livestream.com 网站是否有允许我获得 RTSP 流的 API?提前致谢. 解决方案 我知道这有点老了,但我问了同样的问题,我就是这样做的:
..
我希望从 Youtube API v2 获取当前的直播观看者以进行直播.这条信息似乎可以在 Youtube 直播(“102 正在观看")的主页上和点击直播后查看. http://www.youtube.com/watch?v=oNfdKebcrOI&feature=lb 就在右侧的视频下方.目前我正在使用: https://gdata.youtube.com/feeds/api/charts
..
我是 flex 的新手 &第一次使用 red5 服务器.有人可以帮助我在网页上使用 red5 服务器流式传输实时摄像头.还有如何在运行 ubuntu 11.04 的服务器上安装应用程序. 解决方案 用于在网页上流式传输实时网络摄像头. 首先创建一个 Flash,它将在其舞台上显示网络摄像头视频.然后将 flash 嵌入到网页中的 div 中. 使用代码在屏幕上显示视频并同时发布
..
我正在研究 YouTube 广播 示例示例.我创建了一个示例 Java 项目 &添加了所需的罐子.但是,当我尝试运行该项目时,它会抛出异常. 异常: Throwable:com/fasterxml/jackson/core/JsonFactoryjava.lang.NoClassDefFoundError: com/fasterxml/jackson/core/JsonFactory在 c
..
我正在尝试在node.js中创建一个服务器,该服务器接收RTMP数据包并将其转换为HLS数据包,然后将其发送回.从iOS不支持RTMP的那一刻起,我就开始创建与每个发布版本兼容的实时流服务.这是我的代码,但是我卡在回调中.很抱歉,我不是JS程序员,这是我进入JS项目的第一步.提前致谢!我的流客户端将是OBS. 从'https'导入{服务器};var hls = require('hls-serv
..
现在我尝试使用 Raspberry Pi 制作服务器,将实时流图像数据发送到浏览器.服务器端是用Python&龙卷风,而客户端是用HTML和javascript编写的.两者都使用WebSocket.(我是javascript的初学者.) 这些是代码 服务器端: class WSHandler(WebSocketHandler):def initialize(self,camera)
..
我目前有一台运行Ubuntu且已连接华硕Xtion Pro Live的设备.我想做的是捕获视频并将其 push 推送到服务器,然后让服务器重新流式传输,以便连接到我的服务器的其他客户端可以查看该流.该服务器正在运行Windows,并具有一个公共IP. 我现在拥有的是,当设备与客户端位于同一网络上时,客户端可以直接连接到设备以查看流.例如,如果设备的 ip 为 192.168.1.101,我可
..
我想与red5服务器进行流传输,并且执行了以下代码 ffmpeg -i/var/lib/red5/webapps/test/1.flv -f flv rtmp://127.0.0.1:1935/live/livestream 但是当我尝试捕获流时,它什么也没给出. 解决方案 red5可以直接读取flv文件,并默认将其转换为端口1935上的rtmp流.不需要ffmpeg.此外,red
..
我正在用python开发一个wx应用程序,用于流式传输和显示来自两个不同网络摄像头的视频.这可以正常工作,但是现在我需要在另一种情况下执行此操作,在这种情况下,两个摄像机连接在通过网络连接的Windows上运行的单独计算机中.我的应用程序将在计算机1上运行.可以使用opencv获取来自摄像机1的视频,并将其显示在面板上.我也想从连接到机器2的摄像机2提取视频,并将其显示在应用程序中. 有什么
..
我正在尝试使用VLC库从实时流中保存音频剪辑(每个剪辑15秒).我找不到任何可以让我仅录制15秒直播内容的选项.因此,我最终在代码中使用了timer,但是录制剪辑有时包含10秒,有时包含20秒(很少是15秒).同样,有时音频内容会在剪辑中重复出现.这是代码(我是新手,请指导我) Code.py import os导入系统进口VLC导入时间clipNumber = sys.argv [1]
..
我有一个带有开放式cv的简单python脚本,它可以接收视频并使用YOLO对其进行对象检测.我的问题是,如何将输出作为实时流显示到我的网站上. 这是python代码,保存到output.avi. import cv2从darkflow.net.build导入TFNet将numpy导入为np导入时间进口餐选项= {'型号':'cfg/tiny-yolo.cfg','load':'bin/yol
..
我正在写一个m3u8播放器,有一个小问题.我尝试播放的一个m3u8视频返回的媒体序列与片段文件名无关,并且文件名会永远重复.我怎么知道我是否已经玩过给定的片段? 这是几秒钟后的请求样子: #EXTM3U#EXT-X-VERSION:3#EXT-X-MEDIA-SEQUENCE:5609#EXT-X-ALLOW-CACHE:是#EXT-X-TARGETDURATION:10#EXTINF:1
..