live-streaming相关内容
我尝试开发一个用于实时视频流的应用程序,并且该应用程序适用于某些链接.但是其他一些链接不起作用. 这是我的代码 Uri stream = Uri.parse("rtsp://208.77.20.52:1935/dmm1/ten"); Intent videointent = new Intent(Intent.ACTION_VIEW,stream); startActivity(vi
..
我正在尝试显示使用getUserMedia从网络摄像头获取的MediaStream,并使用可能的播放机制将其中继到远程对等设备(作为实验).我不是直接使用webRTC,因为我想控制原始数据. 我遇到的问题是我的视频元素什么也不显示,也没有收到任何错误.我在基本操作系统(基于Ubuntu 14.04的Linux操作系统)上使用Chrome版本51.0.2704.103(64位). 作为一
..
我第一次使用AVPlayer,我想使用HTTP请求和实时流播放mp3文件.我使用AVPlayer可以正常播放mp3文件,但是问题是AVPlayer需要先下载mp3然后再播放.我不知道为什么AVPlayer下载文件然后播放而不是实时播放.我的Xcode 8.2.1和我正在使用Swift3. 这是我的代码段. var audioPlayer = AVPlayer() var avplaye
..
目前正在做有关实时流媒体的项目,我成功地播放了实时视频.现在,我的下一个任务是录制在VideoView中播放的视频. 我进行了搜索,能够找到捕获的视频,但是带有表面(相机),但是在VideoView中,我没有任何表面. 任何帮助表示赞赏 解决方案 您可以使用平台工具并通过以下方式录制视频: adb shell screenrecord --verbose /sdcard/dem
..
我有一个音频流,我通过以下命令使用ffmpeg将其流化为youtube,并以图片作为背景, ffmpeg -loop 1 -i x.jpg -i http://xxx.xxx.xxx.xxxx:5305/stream -c:a aac -s 1280x720 -ab 128k -strict experimental -f flv rtmp://a.rtmp.youtube.com/live
..
我要进行实时视频流.例如,有讨论.有人正在录制它.我希望视频记录出现在我的网页上.我想使用 HTML 5 来做到这一点.我不知道是否可能,但是有人尝试过吗? 谢谢! 解决方案 对不起,我的问题还不够清楚.我当时正在考虑使用HTML 5和JS代替Flash和其他软件产品.我在这里找到了解决方案: https://davidwalsh.name/browser-camera 和此处: http
..
我最近遇到了麻烦. 我想开发一个嵌入了实时流的Android App,但我只是不知道如何开始. 我尝试使用嵌入了livestreaming标签的Webview,但是它不起作用(很可能是通过Flash提供流的). 我也尝试过使用VideoView组件,但是它也没有用. 我知道这是有可能的,因为那些发布者拥有自己的APP,但是我们提供的格式通常是Flash.不是移动友好格式. 请有人
..
我一直在进行大量研究,但感到沮丧,因为我认为解决方案应该简单,尽管我知道不会.理想情况下,我只想使用节点来托管服务器,使用webrtc getusermedia来获取本地客户端上的实时流,并使用诸如socket.io之类的内容将流发送到服务器,然后服务器将流广播到远程.客户;好像它是一个简单的消息聊天应用程序. 再多考虑一下,这种简单的方法似乎是不可能的,因为实况视频需要连续发送大量数据,这
..
我正在一个网站上加载多个YouTube频道实时流.起初,我试图找出一种无需利用youtube的api即可做到这一点的方法,但已决定让步. 要查找频道是否正在直播,并获取我一直在使用的直播链接: https://www.googleapis.com/youtube/v3/search?part=snippet&channelId={CHANNEL_ID}&eventType=live&m
..
我设法使用YouTubePlayer播放了YouTube视频.但是,当我尝试使用YouTubePlayer播放实时流时,没有任何反应. API支持播放实时流吗?如果是这样,我该怎么办? 解决方案 正常播放YouTube视频和直播视频没有区别.我无法在Android 4.1版上播放直播视频.但是在4.2.2版中,实时视频可以成功播放.必须安装最新版本的Youtube官方应用程序才能使用API
..
基本上我想做的是用Java实现实时视频流.即抓取一台计算机的网络摄像头的视频,并将该视频实时发送到另一台计算机 这是我的服务器端代码,我在其中使用opencv库循环捕获图像,然后将其保存到文件中. 然后,我使用Filestream打开它,并将其发送到其他网络,下面是我的客户端代码 错误: 我在客户端仅获得一张图像,即从网络摄像头捕获的第一张图像 获取所有图像(即在客户端上作为视频
..
我正在尝试用Java创建一个简单的rtsp流服务器.服务器能够将视频正确地流式传输到自定义的书面播放器. 我无法在vlc媒体播放器中播放相同流的问题. 当我启动vlc媒体播放器并输入流媒体详细信息时,我的服务器正在显示vlc发出的以下请求: OPTIONS rtsp://192.168.2.8:8210/movie.3gp RTSP/1.0 CSeq: 1 User-Agent: VL
..
我正在使用angular开发一个Web应用程序,我需要添加一个显示实时RTSP流的窗口.搜索后,我发现可以用JSMpeg js库完成. 在服务器端,我找到了这个nodejs示例 Stream = require('node-rtsp-stream') stream = new Stream({ name: 'name', streamUrl: 'rtsp_url', wsPort
..
我正在使用Live video API,我想在通过iOS应用在Facebook上流式传输实时视频之前显示隐私(公开,朋友,只有我一个人). 1 FBSDKShareKit是否支持实时视频内容? 2我可以在自定义视图中检索朋友列表并显示隐私吗? 解决方案 我制作了 facebook-live-ios 上周的Swift库,为您提供了类似于Facebook-SDK的界面,用于在您自己
..
我在系统#1上获得了一个高清视频"ed_hd.avi".希望通过网络进行流传输并播放System#2中的内容.我在Ubuntu 11.04上使用GStreamer,对此做了很多尝试.各种错误使该目标难以诊断.感谢为系统#1端和系统#2端获得有效的命令. 我尝试过的方法如下: 系统#1: gst-launch filesrc location=ed_hd.avi ! decoded
..
是否可以在Apache Web服务器上执行HLS?将“带有数据块的播放列表放在这里"是否足够?这么简单吗?还是有一些模块可以用于此目的? 非常感谢您的答复 解决方案 是的,仅提供m3u8和分段的ts文件就足够了. HLS的好处在于它是简单的HTTP. 可能必须在Apache中设置mime类型,但默认情况下可能是正确的.
..
正如该主题所建议的那样,我想知道是否有可能在分段的MP4实时流中定期发送有关流内容的元数据. 我正在使用以下命令(1)来获取碎片化的MP4: ffmpeg -i rtsp://admin:12345@192.168.0.157 -c:v copy -an -movflags empty_moov+omit_tfhd_offset+frag_keyframe+default_base_m
..
我正在使用OBS将实时流推送到我的本地rtmp服务器(node-rtsp-rtmp-server), 并且可以与VLC媒体播放器很好地配合使用. 我只想把它放到网页中,然后我找到了videojs. 它没有用,并返回不支持指定的“类型"属性"rtmp/mp4". 看来我的rtmp服务器没有显示该网页的任何请求. 所以我错过了什么? 这是我的代码:
..
我正在用Django创建一个项目.我想在网页上显示来自摄像机的实时供稿.但是我不确定如何返回从网页上的摄像头获取的实时供稿. 到目前为止,这是我尝试过的代码,但未见任何进展. from django.shortcuts import render from .forms import FaceAdditionForm import cv2 import numpy as np from dj
..
我有一台通过RTSP(rtsp://...)通过网络提供实时H.264视频的服务器,并且我一直在尝试寻找一种在其浏览器中向用户显示流的方法(位于至少Windows和OS X-Linux是奖励).我目前已经嵌入了VLC Player,并且可以在IE9和Mozilla Firefox 12.0中使用,但是如果用户最多只需要为他们的浏览器或类似的东西安装插件(而不是整个程序),那将是理想的选择.
..