gstreamer相关内容
我已经编写了一个Gstreamer源插件,它可以产生缓冲区并转换为下游元素并进行预览.最近,我收到一个实现多流的请求,一个流进行预览,另一个流进行记录(我想是使用文件接收器).我之前研究过"tee"插件,但事实证明,它仅支持具有相同格式/分辨率的多个流. 如果两个流具有不同的格式/分辨率(例如,在一个管道中有两个capsfilters),我应该使用哪个插件?如果有插件可以做到这一点,您能提供一些使
..
我正在遵循上的指南https://mathieuduponchelle.github.io/2018-02-01-Python-Elements.html?gi-language=undefined ,以在Python中创建示例gstreamer元素.但是,我无法让GStreamer加载它.我一直在摆弄GST_PLUGIN_PATH,但是找不到我的python文件.我可以让GStreamer查找已
..
我试图从rasberrypi流rtmp,顺便说一下,omx硬件编码器工作得非常好,所以我正在运行: gst-launch-1.0 v4l2src ! «video/x-raw,width=640,height=480,framerate=30/1» !\ omxh264enc target-bitrate=1000000 control-rate=variable !\ video/x-
..
我正在尝试同时使用最新的gstreamer和x265enc.我看到有人已经在 1) gstreamer的x265enc插件的当前状态是什么?真的有效吗? 我需要使用哪个gstreamer分支来构建x265enc?我想构建将与x265enc插件兼容的整个gsteamer源代码. x265enc的系统要求是什么?如何构建?任何Wiki/基本说明都将非常有帮助. 我的目标是在vaughnlive
..
我们正在使用的硬件不支持播放mkv文件. 因此,我需要将Matroska(mkv)视频文件转码为mp4视频文件. 从网上关于转码的资料中了解到,我需要执行以下操作: 使用 matroskademux 元素分离出mkv文件的不同流. 使用可用的mkv解码器将音频和视频流解码为原始格式,并且 将此数据提供给mp4 Muxer元素,然后重新编码为所需格式. 有人可以告诉我是否采用正
..
我想将一些随机字节流式传输到Gstreamer并显示如下: [Rand Bytes]--[Video source=appsrc]--[Video sink=ximagesink] 我在此SO中找到了以下Python代码发布作品 source = gst.element_factory_make("appsrc", "source") caps = gst.Caps("video/
..
编辑:我忘了提到这是在使用轴编码器. 我最近开始使用gStreamer-sharp,我可以使用playbin播放视频,但是我需要实时播放视频,因此需要设置延迟.但是我遇到了这个错误: GST_ELEMENT_PADS gstelement.c:722:gst_element_add_pad: adding pad 'recv_rtp_src_0_21967834
..
我正在为Gstreamer使用Python绑定,并正在使用以下管道将wav文件转换为mp3.在这个问题中,我使用了以下建议之一 /a>,进行了一些修改(因为使用原始语法时出现了一些错误) gst.parse_launch("filesrc location=C:\\music.wav ! decodebin ! audioconvert ! lame ! filesink loc
..
我有一个Raspberry Pi的新相机附件.它尚不支持video4linux,但附带一个小程序,可播放1080p h264流.我已经验证了这项工作,并通过以下方式将视频推送到标准输出: raspivid -n -t 1000000 -vf -b 2000000 -fps 25 -o - 我想处理此流,以便最终获得每秒拍摄一次的视频快照. 因为它是1080p,所以我需要使用rpi的
..
我的本地磁盘上有一个视频文件,我想从中创建一个rtsp流,我将在一个项目中使用它.一种方法是从vlc创建rtsp流,但我想用代码来完成(python会更好). 我已经尝试过像这样的opencv的VideoWritter import cv2 _dir = "/path/to/video/file.mp4" cap = cv2.VideoCapture(_dir) framerate
..
我是gstreamer中的新手,可以尝试从Dlink 2103摄像机获取rtsp视频流. 当我尝试(仅视频)时: gst-launch rtspsrc location=rtsp://192.168.0.20/live1.sdp ! \ rtph264depay ! \ h264parse ! capsfilter caps="video/x-h264,width=1280,heigh
..
您好,我尝试创建管道以获取rtsp流,将其编码为x264并将其保存为mp4文件格式,但似乎不起作用. gst-launch-1.0 rtspsrc location=rtsp://ip/url ! videoconvert ! queue ! x264enc ! mp4mux ! filesink location=test.mp4 解决方案 Okey我知道了: gst-lau
..
我已经为v4l2src同时显示和录制编写了代码. 我的管道看起来像: / [queue] ! [videosink] v4l2src ! tee ! \ [queue] ! [filesink] 当前,我能够一起显示+记录,还可以随意地动态启动和停止记录分支(使用ctrl + c sigint处理程序进行启动/停止). 我在
..
这是用于从服务器捕获流视频的python代码.但是我需要编写一个函数从流中提取一帧.这将是一个按钮.单击后将显示当前帧.我没主意谁能帮我这个??? self.player = gst.Pipeline("player") self.source = gst.element_factory_make("uridecodebin", "video-source") #se
..
我一直试图在Windows上安装gstreamer 1.0,以用作python 2.7模块.我从此处 http://docs.gstreamer.com/display/GstSDK安装了sdk /installing + on + Windows 允许我import pygst,但它只允许我使用gstreamer 0.1(如果尝试pygst.require('1.0'),我会得到pygst.Re
..
我想一次播放两个不同的本地视频文件 窗户.下面没有demux和解码器的代码可以正常工作. static void play_video(){ GMainLoop *loop; GstElement *pipeline,*videomixer; GstElement *src,*sink,*filter,*csp,*videobox; GstEleme
..
我想使用Gstreamer使用C程序播放视频,并从SRT文件中添加字幕. 我是gstreamer的新手,我以某种方式想出了让它在命令行中运行的人: gst-launch filesrc location=video.srt ! subparse ! \ overlay. filesrc location=video.ogv ! oggdemux name=demux \
..
我尝试使用声子播放视频,但无法成功.后来通过Qt论坛得知,即使最新版本的Qt也不支持声子.那就是我开始使用Gstreamer的时候.关于如何将Gstreamer窗口与Qt小部件连接的任何建议?我的目的是在Qt小部件上使用Gstreamer播放视频.那么如何链接Gstreamer窗口和Qt小部件? 我成功地通过winid()获得了小部件的Id. 进一步在Gregory Pakosz的帮助下,我
..
我可以以某种方式告诉GStreamer在指定目录中寻找插件吗? 解决方案 使用GST_PLUGIN_PATH环境变量指向所需的目录,或者以编程方式仅调用: GstRegistry *registry; registry = gst_registry_get_default(); gst_registry_add_path(registry, directory);
..
我正在使用Gnonlin播放两个视频.有一刻,我想暂停一个视频,然后播放另一个视频.但是,我不想手动暂停管道,因为其他视频也将暂停. 例如: self.video[0].set_property("location", LOCATION_VIDEO1) self.video[0].set_property("start", 0 * gst.SECOND) self.video[0].s
..