gstreamer相关内容

使用Gstreamer服务RTSP流,寻求工作示例

我们正在尝试让Gstreamer在DM368 Leopardboard *上工作,我们已经成功地说服了它创建测试视频(videotestsrc),对其进行编码并将其转储到文件中. 起作用的管道是: gst-launch -v videotestsrc num-buffers = 100!队列 !ffenc_mpeg4比特率= 800000!ffmux_mp4!filesink locat ..
发布时间:2021-05-13 19:57:10 其他开发

GStreamer同时记录和查看流

我手头上有一个奇怪的任务,我已经尝试了一切.我想知道你能不能帮忙. 我的任务是获取RaspPi发出的流并将其保存到我的PC中.但是,我需要同时查看和保存它. 可以查看它: gst-launch-1.0 udpsrc port = 5000!application/x-rtp,有效载荷= 96!rtpjitterbuffer!rtph264depay!avdec_h264!fpsd ..
发布时间:2021-05-13 19:57:07 其他开发

如何正确安装PyGObject?(OSX)

我想运行现有的简单示例,并使用GStreamer编写一些简单的代码-特别是使用其Python绑定.我想安装软件包等来启用它. 这是一个例子. http://brettviren.github.io/pygst-tutorial-org/pygst-tutorial.html import gigi.require_version('Gst','1.0')从gi.repository ..
发布时间:2021-05-13 19:57:04 Python

GstMultifilesink消息后回调

我想知道如何使用post-messages = TRUE属性从gstreamer multifilesink元素获取回调?在下面的代码中,永远不会调用my_bus_callback函数. Multifilesink文档说:如果"post-messages"属性为TRUE,则在写入每个缓冲区后会发送名为"GstMultiFileSink"的应用程序消息. ..
发布时间:2021-05-11 18:56:06 其他开发

ffmpeg:混合不同长度的音频和视频

我有2个文件:1个视频文件(无声音)-长度6秒,1个音频-长度10秒.音频和视频都包含相同的对话,但是音频在开始播放视频之前提前4秒开始播放. [----------]音频[ - - - ] 视频 因此,我想将它们混合在一起以生成10秒长的视频文件,其中前4秒出现黑屏并显示音频,然后显示真实的视频和音频. [==== ------]音频+视频(其中'='是黑屏) 我希望我的描述 ..
发布时间:2021-05-06 20:52:05 其他开发

UDP接收器需要在udp发送器之前启动

我正在尝试使用运行Raspian Buster的摄像机从树莓派0w向运行Ubuntu 18.04的计算机发送视频.我正在使用ffmpeg在raspi端使用硬件对h264进行编码,然后使用 gst-launch-1.0 通过UDP发送数据.问题是,如果我启动raspi流,然后启动接收器,则接收器将永远不会连接.如果我启动接收器,然后启动raspi流,则它们可以完美连接. Raspi编码并发送命 ..
发布时间:2021-05-06 20:40:58 其他开发

Gstreamer无法播放avi视频-

我想使用Gstreamer通过以下命令播放视频.顺便说一下,源FlickAnimation.avi中没有音频信息. gst-launch filesrc location=FlickAnimation.avi !avidemux name=demux demux.video_00 ! queue ! ffdec_mpeg4 !ffmpegcolorspace !playsink 确认 ..
发布时间:2020-11-21 02:49:38 其他开发

WebRTC到Gstreamer Bridge

我正在尝试将音频从浏览器流式传输到服务器上的gstreamer管道. 我目前正在使用Kurento,并修改了Hello World示例以尝试将RTP端点连接到管道-但遇到了麻烦. 我知道媒体正在到达那里,因为当我在“记录端点"中交换时,会得到有效的记录. Kurento节点JS是: pipeline.create("RtpEndpoint", {}, function(er ..
发布时间:2020-11-21 02:49:37 其他开发

如何使用Vala将GStreamer视频输出到Gdk.Pixbuf?

我在程序中使用GStreamer 1.0播放文件中的视频.我想将其输出到Gdk.Pixbuf,将其添加到Image中以显示它.但是我不知道如何正确使用它. 这是我尝试执行的操作,但无法编译: this.pipeline = new Pipeline ("mypipeline"); this.src = ElementFactory.make ("filesrc", "video"); ..
发布时间:2020-11-21 02:48:34 其他开发

gstreamer:在concat之后将视频流和audo流都写入单个MP4容器中

美好的一天, 我有两个mp4文件(a.mp4和b.mp4),每个文件都包含视频和音频流,我需要使用gstreamer将它们连接到单个mp4容器(c.mp4)中(此问题已连接)到上一个) 换句话说,以下管道将a.mp4和b.mp4的内容串联起来,然后将结果输出到autovideosink和alsasink中: GST_DEBUG=3 gst-launch-1.0 concat na ..
发布时间:2020-11-21 02:48:31 其他开发

用gstreamer合并多个图像

我想用C中的gstreamer进行某种图像处理,在其中我读取了几张图像,然后将它们全部合并成一个大图像(我程序中的图像是用户以后可以选择的选项),而我却没有不想使用任何外部库来做到这一点 任何建议都很棒 解决方案 因此,基本上,您想对图像进行合成,例如,给定图像A B C D生成此图像: ________________ | | | | A | B ..
发布时间:2020-11-21 02:48:24 其他开发

g_signal_connect“添加了便笺簿"不起作用

我正在尝试学习如何在gstreamer中使用动态填充.因此,我尝试添加添加了填充信号的信号,以便在创建元素后能够收到一条消息.但是,我没有收到任何消息. 这是代码: #include static void cb_new_pad (GstElement *element, GstPad *pad, gpointer ..
发布时间:2020-11-21 02:48:20 其他开发

python gstreamer脚本错误消息no元素"h264parse"

我正在Ubuntu中运行Python脚本.该脚本使用gstreamer.我收到以下错误消息. 错误:没有元素"h264parse" 请让我知道其他信息是否有帮助. 解决方案 h264parse是"gst-plugins-bad"的一部分,如果您的脚本从gi.repository导入了Gst,则您将希望通过软件包管理器进行安装.您将需要1.0插件,否则将需要0.10. 祝你 ..
发布时间:2020-11-21 02:48:17 Python

取消/中止GStreamer tcpclientsink超时的方法

我正在使用GStreamer通过tcpclientsink元素发送Motion JPEG视频流的应用程序.该应用程序运行正常,除非我通过将连接从有线切换为无线或将无线切换为有线来破坏网络.发生这种情况时,看起来tcpclientsink元素在等待15分钟后才响应消息.如果我在这段时间内尝试关闭应用程序,那将成为一个问题.这是我观察到的: 使用tcpclientsink作为接收器,使用GStr ..
发布时间:2020-11-21 02:48:16 其他开发

无法更改gstreamer中的输出格式

我使用的相机支持每秒30和25帧的1080和720p视频.我可以在ARM板上使用以下gstreamer命令使网络摄像头流式传输 gst-launch-1.0 -v v4l2src device=/dev/video0 ! "video/x-raw, width=1920, height=1080, format=(string)YUY2, framerate=30/1" ! xvimage ..
发布时间:2020-11-21 02:47:14 其他开发