rtsp相关内容
我正在构建一个应用程序,该应用程序应该从服务器播放RTSP / RTP流 http: //lscube.org/projects/feng 。 HTML5视频/音频标签是否支持rtsp或rtp?如果不是,最简单的解决方案是什么?也许下拉到VLC插件或类似的东西。 解决方案 技术上'是' (但不是真的......) HTML 5的 tag是协议不可知的 -
..
..
我有一台Amcrest网络摄像机。我想将视频流式传输到我的网页上。 它的网址是 rtsp://mycamera.com:5554 / stream 为了得到照相机的流,相机具有以下API http://mycamera.com/video.mjpg 它需要基本的身份验证才能正常工作。 通过格式化URL并将其放入下面的图像标记中,我可以使它在Firefox,Safari上运行
..
现在VLC插件使用的NPAPI在Firefox中被停用,并且Google Chrome已经停止了长时间的NPAPI,是否有任何解决方案可以在这些浏览器中传输RTSP实时视频? 非常感谢您的帮助。 问候, Tiago Dias 经过很长一段时间的挖掘和跟随这个话题,我来到有趣的结果。 在这一点上,最好的选择似乎是一个RTSP代理,它改变了RTSP的方式,使之与Web浏览器(We
..
我正在编写自定义的DirectShow源推送过滤器,它应该从视频服务器接收RTP数据并将它们推送到呈现器。我写了一个CVideoPushPin类,它继承自CSourceStream和CVideoReceiverThread类,它是从视频服务器接收RTP包的线程的包装。接收者线程本质上有三件事: $ ul 接收原始的RTP包,并收集接收者报告所需的一些数据。 $ b 组合框架,将它们复制到
..
我正在尝试管道音频和视频原始数据到ffmpeg,并通过Android上的RTSP协议推送实时流。 命令行看起来像这样 “ffmpeg -re -f image2pipe -vcodec mjpeg -i”+ vpipepath +“-f s16le -acodec pcm_s16le -ar 8000 -ac 1 -i - ” +“-vcodec libx264” +“-pres
..
我有一个要求,我必须将RTSP流转换成mp4视频或帧(视情况而定)&要将其保存在HDFS(Hadoop文件系统)中。 为此,我尝试使用ffmpeg将RTSP流转换为mp4视频/帧&将视频/帧保存在本地文件系统中。如下 - ffmpeg -i rtsp://10.0.37.150:8554 / big_bunny.mkv -r 1 -f image2 frames / big_frame
..
我想在Chrome PNaCl中创建一个RTSP播放器。 我已经成功构建了ffmpeg naclport,包括 build.sh 文件为ffmpeg NaCl端口。 - 启用网络--enable-protocols --enable-demuxer = rtsp --enable-demux = rtp --enable-demuxer = sdp --enable-decoder =
..
我正在使用ffmpeg在Android上解码rtsp,当图像快速或更高分辨率更新时,我很快看到像素化: 在谷歌搜索之后,我发现它可能与UDP缓冲区大小相关。然后,我重新编译ffmpeg库中的ffmpeg / libavformat / udp.c中的以下参数 #define UDP_TX_BUF_SIZE 327680 #define UDP_MAX_PKT_SIZE 65536
..
我需要一些关于decodein rtsp视频流的帮助。 我从AXIS IP摄像头获取。我使用ffmpeg库。 必须分别创建AVCodecContext,而不是从AVFormatContext-> streams [...] - > codec; 所以我创建AVCodec,AVCOdecContext和try要启动它们。 AVCodec * codec = avcodec_find
..
注意:我知道ffmpeg和libav是不同的库的。这是一个常见的问题。 免责声明:重复的
..
我有一个DLL应用程序用于从RTSP摄像机接收视频。在引擎盖下,该DLL使用此版本zip中的FFMPEG库: ffmpeg-20141022-git-6dc99fd-win64-shared。 7z 我们内部有各种各样的相机,其中大部分都是正常工作。但是,在一个特定的Pelco型号:IXE20DN-OCP上,我无法连接。我在VLC上测试了相机和rtsp连接字符串,并且连接
..
我想在Android上流式传输一个rtsp流,我终于得到 结论,我不能使用android API的MediaPlayer,Videoview等,因为 延迟是我的大问题。我需要一个≤500ms的延迟。现在我是 计划使用Gstreamer或ffmpeg创建一个android rtsp客户端。我只是少了 的疑虑 Gstreamer或ffmpeg客户端能否提供500ms的延迟。我看到有 一
..
我正在尝试从使用RTSP over HTTP的Axis ip摄像机流式传输。 我可以获得正常的RTSP流工作,但是我找不到任何关于如何实际设置流的隧道模式的信息或文档。通过将control_transport设置为RTSP_MODE_TUNNEL,支持源代码。我的问题是简单的如何用以下代码来实现? int ret = avformat_open_input(& pFormatCtx,[@
..
如何保持流程(协议rtsp,编解码器h264)在文件(容器mp4)?也就是说,输入无限流(带有CCTV摄像机),输出文件的mp4格式大小为5-10分钟录音时间。 操作系统:debian, ubuntu 软件:vlc,ffmpeg(avconv) 目前使用此方案: cvlc rtsp:// admin:admin@10.1.1.1:554 / ch1-s1 --sout = f
..
我需要一个开源解决方案/库来将RTSP / RTMP流式传输到iOS应用程序。我需要构建一个连接到媒体服务器的应用程序,并打开提供的视频流。我相信在那里有图书馆,但是我还没有找到一个开源的,编译的,实际的,并且在iOS 5+,iPhone 4+上运行的。我没有偏好, RTMP 或 RTSP 就足够了。最好是工作量最少的人。我有RTSP在Android方面工作,但对iOS没有任何帮助。 这是我
..
我正在寻找一些通用的方式来转储rtsp流。我想知道,一些rtsp流正常运行,服务器发送一些可观看的视频。 openRTSP 首先,Google建议我 openRTSP 工具。 openRTSP -4 $ {stream_link}> $ {output_file} 但是,该工具转储的输出视频文件并不正确。视频解码器(ffdec)返回许多错误,如“无法解码视频数
..
是否可以将原始RTSP流转储到文件中,然后将文件解码为可播放的东西? 目前,我正在使用FFmpeg来接收和解码流,将其保存到mp4文件。这样做完美,但是CPU密集,并将严重限制我可以在我的服务器上同时接收的RTSP数量。 我想将流保存到文件不解码,并将解码部分延迟到文件需要打开时。 这是可能吗? 我尝试过VLC,这比FFmpeg更加CPU密集。我还查看了这个问题,答案是将R
..
我正在开发一个Android应用程序,其中我想要发布和流式传输视频... 我想要的是: 我的应用录制视频,该视频发送到服务器 录制的视频将同时直播到另一个Android设备。 我已经完成了第一个任务使用 javac和ffmpeg 。我陷入了第二个任务。我已经搜索了很多流量从服务器的视频,但我没有成功。我不想使用WebView 并播放视频。我想要RTMP播放器。这个任务已经在
..
最近我有机会与两台通过RTSP流式传输H264的设备合作。 我遇到一些问题,尝试使用FFmpeg库解压缩此流。 每次“ avcodec_decode_video2 ”是所谓的 - FFmpeg只是说: [h264 @ 00339220]没有框架! 我原始的H264流我帧数据开始如下:“ 65 88 84 21 3F F8 F8 0D ...” (据我所知,这个0x65表示它是
..