gstreamer相关内容
我正在开发一个C程序,该程序逐个从文件块中获取数据并将其发送到appsrc对象中。这部分代码工作很好,但我想使用EOS信号。所以,我试了不同的方法,但无论如何都抓不到EOS。 首先,我们需要配置GstBus以获取不同的消息 _bus = gst_pipeline_get_bus (GST_PIPELINE (_pipeline)); _bus_watch_id = gst_bus_ad
..
我有一个使用Yocto构建包括GStreamer在内的库的项目。我发现我需要修补一些GStreamer元素,从而使用patch创建新的bitbake食谱。 我通常必须以图像名称作为参数运行bitbake,这将重新构建整个Yocto(相当长): MACHINE=some_machine nice bitbake yocto-etc-etc 我如何只重建我需要的那部分而不是整个约克托?
..
我在枚举多个操作系统上的Python中的摄像头时遇到一些问题。 以下是我尝试过的一些方法: import cv2 as cv num = 0 while 1: cap = cv.VideoCapture(num) if cap.isOpened(): # working capture num += 1 else:
..
我使用的是Windows 10。我无法将Visual Studio 2017配置为运行基本GStreamer教程。我收到错误信息,如‘无法打开gst/gst.h’。我正在使用GStreamer 1.0。 请帮帮忙。 推荐答案 朋友您好。 首先您需要从https://gstreamer.freedesktop.org/data/pkg/windows/ 下载库 您需要为开
..
GStreamer文档中有大量关于构造和运行静态管道的示例。 然而,在媒体实际流动的情况下,没有太多关于更改/重新链接实时管道中的元素的内容。 这绝对是可能的,所以问题是: 在尝试此操作之前,我应该了解哪些GStreamer概念/机制? 是否有需要注意的陷阱? 基本程序是什么,或者是一个很好的例子? 接受的答案将是填鸭式的、全面的,并带有源代码 推荐答案 我最喜欢的理解
..
我正在尝试构建一个基于GStreamer的RTSP视频服务器。 在我的情况下,我需要客户端连接到服务器并开始将视频流式传输到服务器。 我读过一些关于这个主题的教程,特别是这个:http://www.ip-sense.com/linuxsense/how-to-develop-a-rtsp-server-in-linux-using-gstreamer/ 在本教程中,视频从服务器流式传输
..
我开发了一个基于Qt和QtGStreamer的视频播放器。用于播放直播(RTSP)。我必须为用户添加在播放实况流时拍摄快照的可能性,而不会干扰视频播放。 这里是我制作的管道图: -->queue-->autovideosink uridecodebin-->videoflip-->tee--| |
..
我使用 Debian sid (amd64),每周滚动更新一次.我最近从他们的官方网站下载了 RStudio 的桌面版本 0.99.902 并发布(当然是以 root 身份): dpkg -i rstudio-0.99.902-amd64.deb 无济于事: dpkg:依赖问题阻止了 rstudio 的配置:rstudio 依赖于 libgstreamer0.10-0;然而:未安
..
我想使用 gstreamer 通过 UDP 多播传输相机数据. 对于我在管道下面使用的, gst-launch-1.0 v4l2src !视频转换!视频/x-raw,宽度=720,高度=576,帧率=25/1!x264enc !mpegtsmux!rtpmp2tpay !udpsink 主机=224.1.1.1 端口=9090 自动多播=true 同步=true 异步=false qos=
..
我正在尝试将视频从带有运行 Raspian Buster 的摄像头的树莓派 0w 发送到运行 Ubuntu 18.04 的机器.我正在使用 ffmpeg 在 raspi 端使用硬件编码为 h264,然后通过 UDP 使用 gst-launch-1.0 发送数据.问题是,如果我启动 raspi 流,然后启动接收器,则接收器永远不会连接.如果我启动接收器然后启动 raspi 流,那么它们会完美连接.
..
我正在尝试使用 h264 流式传输视频.源是轴相机.我设法使用多播而不是 h264 流式传输 jpeg. 对于 jpeg,我使用了以下命令: gst-launch-1.0 udpsrc uri=udp://239.194.0.177:1026 !应用程序/x-rtp,编码名称=JPEG,有效负载=26!rtpjpegdepay !JPEG格式!自动视频接收器 我尝试流式传输 h264 但
..
我是 gstreamer 的新手,简单地尝试从 Dlink 2103 摄像头获取 rtsp 视频流. 当我尝试时(只是视频): gst-launch rtspsrc location=rtsp://192.168.0.20/live1.sdp !\rtph264depay!\h264解析!capsfilter caps="video/x-h264,width=1280,height=800
..
按照他们的教程,我一直在尝试让 Gstreamer 在 Android Studio 中工作,例如,请参见此处: https://gstreamer.freedesktop.org/documentation/tutorials/android/link-against-gstreamer.html 但在最新的 Android 工作室中没有 jni/Android.mk.我在哪里将代码
..
我正在尝试从 Logitech c920 流式传输视频,它直接输出 h264.发送端是树莓派,接收端是 Windows 7 PC.使用 udp 可以在 Gstreamer 中完美运行: 发件人: gst-launch-1.0 -v v4l2src device=/dev/video0 !\视频/x-h264,宽度=1280,高度=720,帧率=30/1!h264解析!rtph264pay\
..
我试图从 rasberrypi 流式传输 rtmp,顺便说一下,omx 硬件编码器工作得非常好,所以我正在运行: gst-launch-1.0 v4l2src !«video/x-raw,width=640,height=480,framerate=30/1» !\omxh264enc 目标比特率=1000000 控制率=变量!\视频/x-h264,配置文件=高!h264解析!队列 !\flvm
..
我有一款适用于 Raspberry Pi 的新相机附件.它尚不支持 video4linux,但带有一个小程序,可以输出 1080p h264 流.我已经验证了这项工作,并通过以下方式将视频推送到标准输出: raspivid -n -t 1000000 -vf -b 2000000 -fps 25 -o - 我想处理此流,以便我最终得到每秒拍摄一次的视频快照. 因为是 1080p,所以我需
..
我按照本教程使用 gst-omx 编译了 gstreamer:http://www.onepitwopi.com/raspberry-pi/gstreamer-1-2-on-the-raspberry-pi/ 一切都很顺利,最后当我运行 gst-inspect-1.0 |我得到了 grep omx: omx: omxmpeg2videodec: OpenMAX MPEG2 视频解码器omx
..
我正在尝试使用 gstreamer 从 opencv 流式传输一些图像,但我在管道方面遇到了一些问题.我一般是 gstreamer 和 opencv 的新手.我在树莓派 3 上用 gstreamer 为 python3 编译了 opencv 3.2.我有一个与 raspivid 一起使用的小 bash 脚本 raspivid -fps 25 -h 720 -w 1080 -vf -n -t 0
..
我正在尝试使用 GStreamer 播放文件中的 MP4 视频.我设法使用 playbin2 并从命令提示符使用以下命令播放文件: gst-launch filesrc location=bbb.mp4 !解码器2!自动视频接收器 我预计将来我将需要创建更复杂的管道,因此我试图对管道进行“编程".在我的程序中,我试图复制上面的管道,但是我有一个问题,我怀疑与将 decodebin2 的动态或“
..
我一直在尝试使用新的低级 MediaCodec.我在这方面遇到了一些困难,因为 MediaCodecAPI 的文档很差,但我终于找到了一些工作. 我正在按如下方式设置相机: Camera.Parameters 参数 = mCamera.getParameters();参数.setPreviewFormat(ImageFormat.YV12);//参数.setPreviewFpsRa
..