gstreamer相关内容
我正在尝试使用gstreamer播放本地mpeg2 TS文件: gst-launch filesrc location=open_season.mpg ! mpeg2dec ! xvimagesink 第一帧显示为大块彩色,然后停止.对我在这里做错什么有任何想法吗? -TS文件的处理方式是否与此不同? 这是日志: $ gst-launch filesrc location
..
为什么在下面的管道中,从带有字幕的.srt文件读取文本开始时没有时间戳? 这对我来说是个问题,因为我想稍后与其他src的h264视频进行多路复用,但由于多路复用器的"Buffer has no PTS"而失败. GStreamer版本1.14.5 gst-launch-1.0 filesrc do-timestamp=true location=English.srt ! qu
..
我有两个视频流.视频和音频.其中之一可以是空的,即一开始是流结束. 但是 0:00:10.147044434 51257 0x563c0d51b060 FIXME basesink gstbasesink.c:3384:gst_base_sink_default_event: stream-start event without group-id.
..
我希望在代码中实现该命令行.但是"src".部分=>我不知道该怎么做.在gstreamer网站上有一个tee-队列示例,但rtspsrc不能与tee元素链接.无论我在哪里删除解码器,它都会崩溃,我该如何编码? gst-launch-1.0 rtspsrc location=rtsp://184.72.239.149/vod/mp4:BigBuckBunny_175k.mov latency=
..
这是我的相机照片: 我的相机很特殊(不是纯双目相机),具有一个USB接口,但是有两个设备编号. 设备:/dev/video0是关于左右摄像机图像的, 设备:/dev/video1是结合左右摄像头的图像深度,我用gscam(gstream)驱逐出了/dev/video0的情况是这样的:左右摄像头图像在内部的一个窗口中: 如何将它们分开?分为两个窗口,让左右摄像机图像分别显示吗? 解
..
概述:因此,这是我最后一个问题的跟进工作( 问题:我的下一个问题似乎涉及一种微小的比赛情况,涉及我的麦克风已经在使用中,需要能够记录一些东西. 想象以下内容: 我启动了我的python守护进程,它目前正在监听. 我对着麦克风说话,然后问好Hello Scarlett(Pocketsphinx匹配关键字并立即开始记录所有输入) 应该将音频记录到/tmp/目录中的wav文件中,并且应该
..
我一直在尝试让emgu将相同的网络摄像头视频保存到文件中 问题是opencv仅支持avi,而avi似乎不太适合像X264这样的格式. 我可以在C语言中使用Gstreamer来帮我吗? 如果我也可以选择文件格式和容器类型,那就太好了.如果可以使用schrodinger dirac这样的格式,那将是很好的. 我是GStreamer的新手,所以我不太确定自己是否在正确的轨道上.
..
我有以下gstreamer命令行: gst-launch alsasrc ! mulawenc ! rtppcmupay ! udpsink host= 127.0.0.1 port=5555 它记录单声道语音,如果我在5555端口上监听(使用了回显IP),我可以听到它.但是我需要传送立体声. 我还使用以下命令尝试了麦克风的立体声录音功能: arecord -vv -fdat vo
..
我有python gstreamer-使用"autoaudiosrc"元素记录音频的1.0代码.我的问题是在“预定义"几秒钟后停止管道,最好以gstelement格式添加管道. 用于记录的当前管道: gst-launch-1.0 autoaudiosrc num-buffers=100 ! audioconvert ! vorbisenc ! oggmux ! filesink loc
..
我正在将程序从pygst 0.10移植到1.0,并且管道存在问题.我在0.10版本中使用的并且效果很好的管道是: udpsrc name=src ! tsparse ! tsdemux ! queue ! ffdec_h264 max-threads=0 ! identity ! xvimagesink force-aspect-ratio=True name=video 对于1.0版本
..
天真的,我试图将解码器链接到编码器: $ gst-launch-1.0 filesrc location="/tmp/sound.wav" ! decodebin ! encodebin profile="application/ogg:video/x-theora:audio/x-vorbis" ! filesink location="/tmp/sound.ogg" Setting pi
..
我有一个项目,我们在其中使用gstreamer,x264等通过本地网络将视频流多播到多个接收器(连接到显示器的专用计算机).我们在视频源(相机)系统和显示器上都使用了gstreamer. 我们正在使用RTP,有效负载96和libx264对视频流(无音频)进行编码. 但是现在我需要量化(尽可能接近)帧获取和显示之间的延迟. 有人对使用现有软件有建议吗? 理想情况下,我希望能够
..
我有一个gstreamer管道,可将其所有数据拖放到appsink中: command = g_strdup_printf ("autoaudiosrc ! audio/x-raw-int, signed=true, endianness=1234, depth=%d, width=%d, channels=%d, rate=%d !" " appsink n
..
我正在尝试使用带有Videowidget的Qt 5示例,其中使用QMediaplayer播放视频文件. 它给我像这样的错误 错误:"GStreamer遇到一般流错误." 当我播放其中的任何mp4文件时.它无法播放单个文件. 但是在相同的环境下,如果我使用旧的SDK Qt 4.8.2并使用Phonon并播放相同的文件,那就没问题了.它的工作. 谁能告诉我为什么新的SDK QT 5.
..
我拥有一个avermedia volar HX usb记忆棒,我想从复合输入中捕获,但是不能,因为我无法选择输入.我正在使用带有+ python的gstreamer,我想我需要使用gsttuner select输入,但是我没有使用gstreamer界面的经验.有人可以张贴一个简单的例子吗? 谢谢! 解决方案 对于任何对此绊脚石的人,自最初发布以来,一些内部gstreamer更改可能现
..
如何在程序中设置水槽垫的属性 例如: sin_00::outWidth=1280 sin_00::outHeight=720 in this way pipeline was run using gst-launch-0.10 ..... 并设置此属性,我已经使用了gst_pad_set_property() API,但它不起作用 它显示以下错误: 3_video_temp.c:
..
这是我到目前为止在玩游戏时想得到的: case GDK_Up: { gint64 pos_ns, dur_ns, seek_ns; GstFormat format; format = GST_FORMAT_TIME; gst_element_query_duration(pipeline,&format,&dur_ns); gst_elemen
..
我正在运行以下GStreamer命令: gst-launch-1.0 -v filesrc location=audiofile.mp3 ! mad ! audioconvert ! rtpL16pay mtu=1024 ! udpsink port=5005 host=127.0.0.1 这将设置最大包大小为1024字节(最大传输单元)的RTP流.当我运行此流时,最终得到的序列是4个
..
我一直在尝试将2个视频与gstreamer结合在一起, 使用gstreamer&在它们之间的短暂过渡(如smpte) gnonlin在python中.但是我无法使gnloperation/smpte过渡正常工作. 目标 下面是一个程序.我希望它播放一个文件的前4秒,并在2秒开始播放到另一个文件的快速过渡(持续2秒). (因此第二个文件将在整个播放过程中播放2秒钟,但在2秒钟的转换过程中
..
我有rtsp服务器,我想扩展rtp缓冲区头.为此,我向rtph265pay的src添加了探针,但从未调用过.我的管道: ( appsrc name=vsrc ! nvvidconv ! video/x-raw(memory:NVMM),format=NV12 ! omxh265enc MeasureEncoderLatency=true bitrate=20000000 control-ra
..