rtsp相关内容
我有一段代码,它当前获取一个视频,并使用用于Python的GStreamer绑定在屏幕上显示它。我可以在播放器打开时点击“前进”按钮来搜索视频,这对我来说是一个重要的功能,因此我不想使用解析来编写管道并将其发送到GST-Launch。 我现在想要做的是不仅将这个视频流到一个新打开的窗口,而且(或者只有在我不能两者兼有的情况下)通过RTSP在VLC甚至通过局域网的另一个客户端打开它。有什么办法
..
我有一个产品,可以在输入RTSP URL后分析视频。 我想使用网络摄像头来串流和提供我的产品的网络摄像头RTSP。 我如何才能做到这一点? 推荐答案 这将取决于您使用的网络摄像头-大多数支持RTSP,但许多不发布访问流的接口,因为它们被设计为与网络摄像头自己的配套应用程序一起使用。 有一些Web资源提供了常见网络摄像头的RTSP URL-随着新版本的网络摄像头的推出,您可能会发现很难
..
问题定义 假设我有大量的RTSP摄像头(>;100),我想对其执行一些操作,如图像特征提取。 重要提示:我对实时性能不感兴趣,我可以立即进行4次特征提取。显然,越多越好! 像现在一样,瓶颈是图像获取。帧的获取方式为cv2 有关我尝试的内容,请阅读下面的部分。 伪码(当前解决方案) while True: for every rstp_cameras:
..
我有一个简单的Python程序,使用gst-rtsp-server创建一个RTSP流。它可以工作,但目前没有错误处理。如果管道有打字错误或连接到视频源时出现问题,我看不到堆栈跟踪或任何日志记录。我应该在哪里挂接代码来处理这样的问题? 我应该提一下,我完全是GObject世界的初学者。我怀疑这些库有一种标准的方法来报告错误,但我在我读到的有关如何做到这一点的文档中找不到任何东西。 如果有
..
我已经安装了GStreamer SDK,正在尝试编译以下代码: #include #include int main (int argc, char *argv[]) { GMainLoop *loop; GstRTSPServer *server; GstRTSPMediaMapping
..
我想通过使用gst_rtsp_media_factory_set_launch()函数在中间接收来自RTSP-Server的中断来更改管道。我使用media_configure()回调函数来获取管道的GstElement。如果在中间接收到中断,则将其更改为GST_STATE_NULL,然后更改输入gst_rtsp_media_factory_set_launch()函数的命令。具体来说,当用户在播
..
我有一个Blazor托管的应用程序,在该应用程序中,我需要在客户端请求时(通过RTSP PLAY命令)从AXIS摄像机获取H264录制,并以浏览器可以再现视频的方式将其返回。如果向AXIS摄像机查询录制列表,则答案包括此录制列表,即我尝试在浏览器上播放的录制列表
..
我正在尝试构建一个基于GStreamer的RTSP视频服务器。 在我的情况下,我需要客户端连接到服务器并开始将视频流式传输到服务器。 我读过一些关于这个主题的教程,特别是这个:http://www.ip-sense.com/linuxsense/how-to-develop-a-rtsp-server-in-linux-using-gstreamer/ 在本教程中,视频从服务器流式传输
..
可能有人问过同样的问题,但我没有找到任何可用的解决方案. 我正在尝试在 android 中播放 RTSP 流,服务器是 Darwin 流服务器.目前我尝试过 VideoView 和 MediaPlayer,这两个在我使用 3G 时总是可以正常工作,但在我使用 Wifi 时有时会出现问题,特别是当我在工作场所使用 Wifi 时,以及 LogCat 中的错误: PlayerDriver(3
..
我是 gstreamer 的新手,简单地尝试从 Dlink 2103 摄像头获取 rtsp 视频流. 当我尝试时(只是视频): gst-launch rtspsrc location=rtsp://192.168.0.20/live1.sdp !\rtph264depay!\h264解析!capsfilter caps="video/x-h264,width=1280,height=800
..
我目前正在开发一个 WinForm 应用程序,以使用 C# 中的 RTSP 协议从 IP 摄像机流式传输视频.一切正常.该应用程序的部分要求包括检查网络摄像机是否在线的功能. 所以我使用 System.Net.NetworkInformation.Ping 类执行了一个 ping 函数来 ping IP 摄像机.假设摄像机的RTSP url如下rtsp://[CAMERA IP]:554/M
..
是否可以从 Axis 相机通过 RTSP 发送的 H.264 流中读取绝对时间戳? 有必要知道相机何时拍摄了帧. 谢谢安德烈亚 解决方案 正如 Ralf 已经说过的那样 - RTP 时间戳是相对于随机时钟的 - 它们仅用于计算两个帧之间的差异(或一般的 RTP 数据包).要将这些相对值同步到挂钟,您可以使用 RTCP 发送器 - 只需查看 Ralf 提供的链接即可. 对于
..
我正在尝试从 IP 摄像机获取 Python 中的视频流,但出现错误.我正在使用 Pycharm IDE. 导入 cv2方案 = '192.168.100.23'主机=方案cap = cv2.VideoCapture('http://admin:Ebmacs8485867@'+host+':81/web/admin.html')而真:ret, frame = cap.read()# 在此处放置要
..
例如,我们有工作 rtsp 流测试,如:“rtsp://184.72.239.149/vod/mp4:BigBuckBunny_115k.mov"(它在发布这篇文章时起作用) 现在我想在 openCV (opencv 2.4.7/2.4.8) 中捕捉这个视频流我的代码在本地电影文件上运行良好,但是当我尝试捕获 rtsp 时,我收到如下消息:“无法读取电影文件 rtsp://184.72.23
..
我已经在谷歌上搜索了所有内容,但无法从 YouTube 视频中获取 rtsp 链接并提供 VIDEO_ID. 我对如何使用该 ID 然后解析 google 以获取链接感到困惑. 感谢您付出的时间和精力. 解决方案 我发现了这个 博客条目,也许是一个起点.如果您遵循 链接,您会得到另一种格式,您可以在其中找到 rtsp 链接. 编辑:在浏览了 WarrenFaith 发布的
..
我想使用 ffmpeg 从 RTSP 视频中获取帧.但是对于上面的 android 10,我收到如下错误. E/FFmpeg:尝试运行时出现异常:[Ljava.lang.String;@55e447fjava.io.IOException:无法运行程序“/data/user/0/com.example.downloadimagefromurl/files/ffmpeg":error=13,权限
..
我正在寻找转储 rtsp 流的通用方法.我想弄清楚,某些 rtsp 流运行良好,服务器正在发送一些可观看的视频. openRTSP 起初,google 向我推荐了 openRTSP 工具. openRTSP -4 ${stream_link} >${输出文件} 但是该工具转储的输出视频文件并不正确.视频解码器 (ffdec) 返回许多错误,例如“无法解码视频数据包"和“[h264
..
如何将流(协议 rtsp、编解码器 h264)保存在文件(容器 mp4)中?即在输入源源不断的视频流(用闭路电视摄像头)时,输出的mp4格式文件大小为5-10分钟的录音时间. 操作系统:debian、ubuntu软件:vlc、ffmpeg(avconv) 目前使用这个方案: cvlc rtsp://admin:admin@10.1.1.1:554/ch1-s1 --sout=file
..
从 FFmpeg 流式传输 RTSP 需要哪些步骤? 流式传输 UDP 不是问题,但由于我想流式传输到可以本机读取 RTSP 流的移动设备,我找不到任何可以说明确切需要什么的设置.我需要像 LIVE555 这样的 RTSP 流媒体服务器还是只能使用 FFmpeg? 我的命令: ffmpeg -i space.mp4 -vcodec libx264 -tune zerolatency
..
比如... rtsp://user:pass@x.x.x.x/VideoString 解决方案 已经有一段时间了,不确定 11 的故事是什么,但是是的,ffmpeg 现在支持. ffmpeg -i rtsp://user:pass@x.x.x.x/VideoString 有效.
..