gstreamer相关内容
我们正在尝试让Gstreamer在DM368 Leopardboard *上工作,我们已经成功地说服了它创建测试视频(videotestsrc),对其进行编码并将其转储到文件中. 起作用的管道是: gst-launch -v videotestsrc num-buffers = 100!队列 !ffenc_mpeg4比特率= 800000!ffmux_mp4!filesink locat
..
我手头上有一个奇怪的任务,我已经尝试了一切.我想知道你能不能帮忙. 我的任务是获取RaspPi发出的流并将其保存到我的PC中.但是,我需要同时查看和保存它. 可以查看它: gst-launch-1.0 udpsrc port = 5000!application/x-rtp,有效载荷= 96!rtpjitterbuffer!rtph264depay!avdec_h264!fpsd
..
我想运行现有的简单示例,并使用GStreamer编写一些简单的代码-特别是使用其Python绑定.我想安装软件包等来启用它. 这是一个例子. http://brettviren.github.io/pygst-tutorial-org/pygst-tutorial.html import gigi.require_version('Gst','1.0')从gi.repository
..
我想知道如何使用post-messages = TRUE属性从gstreamer multifilesink元素获取回调?在下面的代码中,永远不会调用my_bus_callback函数. Multifilesink文档说:如果"post-messages"属性为TRUE,则在写入每个缓冲区后会发送名为"GstMultiFileSink"的应用程序消息.
..
我有2个文件:1个视频文件(无声音)-长度6秒,1个音频-长度10秒.音频和视频都包含相同的对话,但是音频在开始播放视频之前提前4秒开始播放. [----------]音频[ - - - ] 视频 因此,我想将它们混合在一起以生成10秒长的视频文件,其中前4秒出现黑屏并显示音频,然后显示真实的视频和音频. [==== ------]音频+视频(其中'='是黑屏) 我希望我的描述
..
我正在尝试使用运行Raspian Buster的摄像机从树莓派0w向运行Ubuntu 18.04的计算机发送视频.我正在使用ffmpeg在raspi端使用硬件对h264进行编码,然后使用 gst-launch-1.0 通过UDP发送数据.问题是,如果我启动raspi流,然后启动接收器,则接收器将永远不会连接.如果我启动接收器,然后启动raspi流,则它们可以完美连接. Raspi编码并发送命
..
我在笔记本电脑(Ubuntu 14.04)上编写了一个依赖于GStreamer的应用程序,并希望针对我的Yocto Linux目标(iMX6S-Wandboard)对其进行交叉编译.如何交叉编译应用程序,使其在目标板上运行并能够使用GStreamer库? 谢谢 Toan UDPATE: 我的Makefile: PACKAGES = gstreamer-1.0覆盖CFLA
..
我使用gstreamer插件编写者指南(
..
我正在运行 收件人: if(data.encoder){data.source = gst_element_factory_make("avfvideosrc",“源");g_object_set(G_OBJECT(data.source),"do-timestamp",TRUE,"device-index",1,NULL);
..
我想使用Gstreamer通过以下命令播放视频.顺便说一下,源FlickAnimation.avi中没有音频信息. gst-launch filesrc location=FlickAnimation.avi !avidemux name=demux demux.video_00 ! queue ! ffdec_mpeg4 !ffmpegcolorspace !playsink 确认
..
我正在尝试将音频从浏览器流式传输到服务器上的gstreamer管道. 我目前正在使用Kurento,并修改了Hello World示例以尝试将RTP端点连接到管道-但遇到了麻烦. 我知道媒体正在到达那里,因为当我在“记录端点"中交换时,会得到有效的记录. Kurento节点JS是: pipeline.create("RtpEndpoint", {}, function(er
..
我在程序中使用GStreamer 1.0播放文件中的视频.我想将其输出到Gdk.Pixbuf,将其添加到Image中以显示它.但是我不知道如何正确使用它. 这是我尝试执行的操作,但无法编译: this.pipeline = new Pipeline ("mypipeline"); this.src = ElementFactory.make ("filesrc", "video");
..
美好的一天, 我有两个mp4文件(a.mp4和b.mp4),每个文件都包含视频和音频流,我需要使用gstreamer将它们连接到单个mp4容器(c.mp4)中(此问题已连接)到上一个) 换句话说,以下管道将a.mp4和b.mp4的内容串联起来,然后将结果输出到autovideosink和alsasink中: GST_DEBUG=3 gst-launch-1.0 concat na
..
我正在尝试捕获麦克风音频并将其另存为文件.但它不起作用,我只能在分配时播放文件.如何启用麦克风并对其进行缓冲,或者将其保存为原始的.odd/vorbis? #include #include static gboolean bus_call (GstBus *bus, GstMessage *msg,
..
我想用C中的gstreamer进行某种图像处理,在其中我读取了几张图像,然后将它们全部合并成一个大图像(我程序中的图像是用户以后可以选择的选项),而我却没有不想使用任何外部库来做到这一点 任何建议都很棒 解决方案 因此,基本上,您想对图像进行合成,例如,给定图像A B C D生成此图像: ________________ | | | | A | B
..
我正在尝试学习如何在gstreamer中使用动态填充.因此,我尝试添加添加了填充信号的信号,以便在创建元素后能够收到一条消息.但是,我没有收到任何消息. 这是代码: #include static void cb_new_pad (GstElement *element, GstPad *pad, gpointer
..
我正在Ubuntu中运行Python脚本.该脚本使用gstreamer.我收到以下错误消息. 错误:没有元素"h264parse" 请让我知道其他信息是否有帮助. 解决方案 h264parse是"gst-plugins-bad"的一部分,如果您的脚本从gi.repository导入了Gst,则您将希望通过软件包管理器进行安装.您将需要1.0插件,否则将需要0.10. 祝你
..
我正在使用GStreamer通过tcpclientsink元素发送Motion JPEG视频流的应用程序.该应用程序运行正常,除非我通过将连接从有线切换为无线或将无线切换为有线来破坏网络.发生这种情况时,看起来tcpclientsink元素在等待15分钟后才响应消息.如果我在这段时间内尝试关闭应用程序,那将成为一个问题.这是我观察到的: 使用tcpclientsink作为接收器,使用GStr
..
我使用的相机支持每秒30和25帧的1080和720p视频.我可以在ARM板上使用以下gstreamer命令使网络摄像头流式传输 gst-launch-1.0 -v v4l2src device=/dev/video0 ! "video/x-raw, width=1920, height=1080, format=(string)YUY2, framerate=30/1" ! xvimage
..
我正在尝试使用GStreamer将RTMP/RTSP流连接到v4l2loopback虚拟设备. Works 1-RTMP到AutoVideoSink sudo gst-launch-1.0 rtspsrc location = rtsp://192.168.xxx.xxx/live/av0!解码器!自动视频接收器 sudo gst-launch-1.0 rtmpsrc location
..