gstreamer相关内容
我正在开发一个机器人,它使用Gstreamer从Jetson Nano通过UDP将两个摄像头流传输到Android设备。 此时,我正在获取其中一个流,并尝试对视频进行编码以在Android设备上显示。我的GStreamer管道如下所示: rtspsrc location=rtsp://192.168.1.239:8554/test ! application/x-rtp, payloa
..
我想使用GStreamer进行网络流传输。目的是启动视频内容(从发射机),并在接收器端播放它。 我编写了一个测试代码示例,用于传输网络内容。 在发送端: GST_DEBUG=“*:2”GST-Launch-1.0视频测试src!视频/x-RAW!老天!Rtpjpegpay!Udpsink host=127.0.0.1 port=5001 在接收方: GST_DEBUG=“*:2”GST
..
我正在努力学习录制X11 Windows的内容,以便为YouTube制作游戏截屏。这应该是一项相当微不足道的任务,但它已经花了整整一个晚上。现在我已经学习了一些关于多路传输和排队的知识(使用gst-launch),但问题仍然存在:当我将音频和视频多路传输到Avi中时,视频的播放速度比生成的文件中的音频快几倍。这意味着视频很快就会结束并静止,而音频在背景中继续喋喋不休。 这是导致问题的筛选器链
..
我正在尝试运行复制视频流的GStreamer管道,以便可以在两个应用程序中使用它。以下是我的示例流水线,它在Jetson Nano上运行失败,但在我的Ubuntu PC上运行。 我已经使用v4l2loopback创建了两个V4L2设备(/dev/avio1和/dev/Video2),如下所示: sudo modprobe v4l2loopback video_nr=1,2 制片人
..
我正在用GStreamer构建我的第一个应用程序,我的任务是从互联网上获取一个流,使用CUDA对其进行修改(更改像素)以并行计算帧,并输出修改后的流。 为简单起见,目前我使用MP4视频在磁盘上读写,不使用CUDA。 我在这个网站上找到了一个例子: https://fossies.org/linux/gst-plugins-base/tests/examples/app/appsi
..
我有一段代码,它当前获取一个视频,并使用用于Python的GStreamer绑定在屏幕上显示它。我可以在播放器打开时点击“前进”按钮来搜索视频,这对我来说是一个重要的功能,因此我不想使用解析来编写管道并将其发送到GST-Launch。 我现在想要做的是不仅将这个视频流到一个新打开的窗口,而且(或者只有在我不能两者兼有的情况下)通过RTSP在VLC甚至通过局域网的另一个客户端打开它。有什么办法
..
在使用GStreamer命名空间“GST”时,我对“Vala”有一些问题 瓦拉认不出来了……有人能帮帮我吗? 错误:Gst namaspace could not be found 我是Vala新手,因此我不知道如何解决它 推荐答案 编译时需要将类似--pkg gstreamer-1.0的内容传递给valac。 要使用的任何包都需要告知编译器。与Valac一起分发的使
..
我正在使用一个管道,该管道应该播放文件,同时生成用于其他目的的缩放版本(因此是应用程序接收器)。 管道如下: gst-launch-1.0.exe filesrc location=a.mp4 ! decodebin ! tee name=fork fork. ! queue ! videoconvert ! autovideosink fork. ! queue !
..
我有一个简单的Python程序,使用gst-rtsp-server创建一个RTSP流。它可以工作,但目前没有错误处理。如果管道有打字错误或连接到视频源时出现问题,我看不到堆栈跟踪或任何日志记录。我应该在哪里挂接代码来处理这样的问题? 我应该提一下,我完全是GObject世界的初学者。我怀疑这些库有一种标准的方法来报告错误,但我在我读到的有关如何做到这一点的文档中找不到任何东西。 如果有
..
我已经安装了GStreamer SDK,正在尝试编译以下代码: #include #include int main (int argc, char *argv[]) { GMainLoop *loop; GstRTSPServer *server; GstRTSPMediaMapping
..
这个问题可能很愚蠢。GStreamer元素如何在一个进程中多次加载?在创建GStreamer元素时,如果已经创建了一个并存在于内存中,它们是否共享?在我的例子中,一个进程创建多个线程,为我正在创建的每个线程创建下面的GStreamer元素,链接并将管道设置为播放状态,filesrc->q->filesink,这是可行的。但是,当我在Q->文件链接之间添加GStreamer元素(新编写用于处理GST
..
我正在尝试使用带有rtsp和python的流媒体传输我的笔记本电脑网络摄像头帧。 为此,我使用了GStreamer。 浏览Web上的一些示例,我得到了以下代码,并使用.mp4格式的本地视频对其进行了测试 #!/usr/bin/env python import sysimport gi gi.require_version('Gst', '1.0') gi.require_version('
..
我想通过使用gst_rtsp_media_factory_set_launch()函数在中间接收来自RTSP-Server的中断来更改管道。我使用media_configure()回调函数来获取管道的GstElement。如果在中间接收到中断,则将其更改为GST_STATE_NULL,然后更改输入gst_rtsp_media_factory_set_launch()函数的命令。具体来说,当用户在播
..
我正在尝试使用GStreamer 1.0标志编译的gscam(http://wiki.ros.org/gscam),并将摄像头通过以太网连接到运行Ubuntu16.04、Ros Kinetic和GStreamer 1.0的笔记本电脑上。 我可以使用以下命令正确启动GStreamer并看到STRAM窗口: gst-launch-1.0 udpsrc caps="application/x
..
视频流之神您好 例如,我正在尝试复制网络摄像头流,以便在发送它的同时仍能在Web浏览器中使用它 目标是使用v4l2Loopback创建一个虚拟视频设备使用GStreamer从真实的网络摄像头获取信号源,在我需要的地方创建一个TEE流(RTPS服务器),并在另一个TEE分支上使用v4l2接收器转发到使用v4l2Loopback创建的虚拟设备 我在ubuntu 20.04下测试,但计划最后在Rasp
..
如何使用失真系数 已使用特定的python代码(dist [[7.33183864e+03 1.52395233e-01 2.53983049e+00 2.20587897e+00 2.61869010e-06]] )和CameraUnsecurt插件进行了计算。 我在文档中看到了以下管道示例: gst-launch-1.0 -v v4l2src ! videoconvert ! ca
..
我们在GStreamer管道中使用GStreamer Souphttpsrc来访问和转发http流。要访问Httpstream,我们必须使用BasicAuth。我们知道如何格式化基本的auth标头,但通过Souphttpsrc Extra-Headers参数将标头作为GstStructure传递时遇到了问题。 目前我们正在使用下面的命令 gst-launch-1.0 spuphttsr
..
我正在通过串行链路上接收H.64帧,尝试使用GStreamer播放它们。我将大写字母设置为gst_caps_from_string("video/x-h264"),它似乎接受它们(如果我使用其他大写字母,例如application/x-rtp,则GStreamer日志输出报告不兼容的大写字母)。 更具体地说,我使用了以下元素:appsrc ! h264parse ! rtph264pay,看
..
我正在尝试构建一个在Windows上实现GStreamer的Rust程序,但我不知道如何正确地处理依赖关系。我一直收到此错误: --- stderr `"pkg-config" "--libs" "--cflags" "glib-2.0" "glib-2.0 >= 2.42"` did not exit successfully: exit code: 1 --- stderr Packag
..
我计划从OpenCV做视频捕获,用于视频文件流/直播RTSP流。然而,在我的程序中使用VideoCapture时有很大的延迟,所以我决定使用GStreamer管道。例如,我使用 VideoCapture capVideo("filesrc location=CarsDriving.mp4 ! qtdemux ! h264parse ! nvv4l2decoder ! nvvidconv !
..