gst-launch相关内容
我想使用GStreamer进行网络流传输。目的是启动视频内容(从发射机),并在接收器端播放它。 我编写了一个测试代码示例,用于传输网络内容。 在发送端: GST_DEBUG=“*:2”GST-Launch-1.0视频测试src!视频/x-RAW!老天!Rtpjpegpay!Udpsink host=127.0.0.1 port=5001 在接收方: GST_DEBUG=“*:2”GST
..
我有一个基于I420格式的原始视频文件,名为video.i420. 我尝试使用gst-launch-1.0将其转换为BGRA格式: gst-launch-1.0 filesrc location=video.i420 ! videoparse width=1920 height=816 format=2 framerate=24/1 ! videoconvert ! videoparse f
..
我有2个视频文件(vid1.mov和vid2.mov),它们都具有相同的帧大小和帧速率.我想有1个最后的视频,其中一个显示vid1.mov,然后一个vid2.mov,一个接一个.我还希望从一个视频过渡到另一个视频(而不是突然更改视频),并且发现了在ubuntu linux命令行上使用gst-launch,如何将两个视频与过渡一起合并? (假设我想使用与2秒长且type = 234的示例相同的
..
我正在尝试让gst-launch用户通过TCP流式传输mp3音频,这就是我正在尝试的方法: $ gst-launch-0.10 filesrc location="/path/to/file.mp3" ! tcpserversink host=0.0.0.0 port=3000 但它不起作用,输出如下: Setting pipeline to PAUSED ... Pipeline
..
我目前正在尝试使用gstreamer,mp3播放媒体文件,但我得到的uri格式错误,并且找不到该文件. 文档中的原始命令是 gst-launch-1.0 playbin uri=file:///home/joe/my-random-media-file.mpeg 我正在尝试使其在Windows上运行并编写 gst-launch-1.0 playbin uri=file://C
..
我正在使用gstreamer Windows端口OSSBuild.我想使用fdsrc元素通过其STDIN为gst-launch提供视频数据.这样做似乎是管线仅消耗了输入的一小部分.例如 type source.yuv | gst-launch fdsrc ! videoparse format=GST_VIDEO_FORMAT_I420 width=176 height=144 framer
..
我一直在使用rtspsrc来收集音频和视频从一个网络摄像机到另一个网络摄像机的应用程序.但是,我无法观看来自摄像机的视频流,因此无法验证该视频流是否按预期工作.为了验证流是否正确,我想将其记录在SD卡上,然后在计算机上播放文件.问题是我希望相机尽可能多地进行解析,解码和去荷,因为那是应用程序的目的. 因此,我必须通过解复用器分离音频和视频流,并进行解析,解码等,然后将它们复用回matroska文
..
我正在尝试显示 原始图片(1.8MB)与gst-launch-1.0.我了解必须先将数据编码为JPG,然后才能实现.如果图像已经存储为 jpg 文件,那么故事将非常简单: gst-launch-1.0.exe -v filesrc location=output.jpg ! decodebin ! imagefreeze ! autovideosink 但是,我需要组装管道以显示原始 B
..
我有使用gst-launch命令在Linux PC上运行网络摄像头的代码. 当我终止进程时,网络摄像头窗口不会关闭,但是程序停止运行.我也要关闭网络摄像头窗口. 你能帮我吗? import subprocess import time import os import signal cmd = "gst-launch-1.0 -v v4l2src ! video/x-raw,form
..