gstreamer相关内容
我有一个以xvimagesink元素结尾的gstreamer管道.要在特定的窗口中显示视频,我可以使用x_oerlay_interface: gst_x_overlay_set_xwindow_id(GST_X_OVERLAY(xvsink),winid); 到目前为止,太好了.但是,仅当winid是顶层窗口的想法时才起作用,而子窗口小部件则不是这种情况.假设我有: 对话框小部件Di
..
此问题与 来自2个文件源的数据过滤到textoverlay元素源板中.所有的行制动器都将被忽略. gst-launch-1.0 -v \textoverlay name = ov!autovideosink \filesrc location = sample.mp4!解码器!ov.videosink \filesrc location = titles.srt!低于!ov.text_sin
..
我想将RTP流输入到gstreamer gst-rtsp-server中.对于初始测试,我使用测试启动.来自github 的c示例(版本1.14). 当我编译并使用它时,它可以按预期的默认示例很好地工作,并且可以在rtsp://127.0.0.1:8554/test上看到一个流(例如,使用vlc Player): ./test-launch“((videotestsrc!x264enc!
..
配置:ubuntu 20,javafx 11,jdk15,语言级别8 问题:mp3文件可以直接在ubuntu上播放,但不能在以下代码中播放,但是该代码可用于播放* .wav和* .aiff音频文件,但mp3除外: Media media = new Media(新文件(“新文件("assets/audios/shoot.mp3").toURI().toString());MediaPla
..
我跑步: raspivid -t 999999 -w 1080 -h 720 -fps 25 -hf -b 2000000 -o-|\ gst-launch-1.0 -v fdsrc!h264parse!rtph264pay config-interval = 1 pt = 96 \!gdppay!tcpserversink主机=服务器IP端口= 5000 在Raspberry Pi上运行
..
我如何使用C ++(Ubuntu)解码音频文件(wav,mp3,aiff)并将其(PCM/int)存储在矢量/数组中? 到目前为止,我所做的是:我使用gstreamer(我是一个非常初学者)来解码文件,并且可以播放它并使用pull-buffer获取数据,但是我没有找到获取整个音频的方法.数据存储在数组中. gstreamer中有这种方法吗?还是存在其他C ++库来解码音频文件并获取原始
..
我是使用g流光的新手,我尝试使用tsdemux中的emit-stats属性 如何在管道中使用它? 我正在尝试获取信号传输流的程序时钟参考值,但无法获取它. 解决方案 感谢您提供相关信息. 是测试命令,可以查看脚本并检查值,但是要花很多钱在我的行中添加message-stats消息. 如果我在主管道的GstBus上创建了公共汽车监视,以查看视频时长和行中的播放时间,但
..
我有一个RTSP视频源(h265),可以使用VLC进行显示.我想将流分成两个,一个以原始分辨率(用h265编码),另一个以新的较低分辨率(用h264编码).这两个新流也都应该是RTSP流,可以在VLC中查看. 出于带宽考虑,我只能将单个客户端连接到主要源. 到目前为止,我有一个工作正常的gst-rstp-server设置,并且有一个媒体工厂运行此gst启动字符串: rtspsrc
..
我尝试将RTSP h.264流保存到HLS mp4文件: gst-launch-1.0 rtspsrc location ="rtsp://....."!rtph264depay!h264parse!matroskamux!hlssink max-files = 0播放列表长度= 0 location ="/home/user/ch%05d.mp4" playlist-location ="/
..
几乎完全相同的问题: OpenCV错误-无法在函数CvVideoWriter_GStreamer :: open 中播放管道 上下文:我正在尝试创建视频,并使用OpenCV 3.3.0和Python 2.7将其保存在.avi文件中. 问题:此代码: fourcc = cv2.VideoWriter_fourcc(*'XVID')out = cv2.VideoWriter('data/
..
希望在锈迹绑定中获得x264enc的比特率和帧率的人类可读输出,以确认值的变化 在示例之后,看起来比特率是从 设置的 bitrate:比特率,单位为kbit/sec标志:可读,可写,可在NULL,READY,PAUSED或PLAYING状态下更改 所以首先我们创建元素并将其添加到管道中,然后将其链接 让myEnc = gst :: ElementFactory :: make
..
我在gstreamer上没有太多经验,而且我在网上找不到能解决它的东西. 我正在使用此开源开发一个Android应用程序以通过UDP将摄像机作为H264 mpegts流式传输. 我受困于管道,在那里有两个工作管道,但我无法合并在一起一起工作.原始的开源管道: "ahcsrc!队列!glimagesink名称= vsink sync = false" (当ahcsrc代表andro
..
我正在尝试将视频帧放入OpenCV,对其进行一些处理(确切地说, aruco检测),然后使用GStreamer将结果帧打包到RTSP流中. 我已经看到了 Python解决方案问题,但在将其转换为C ++时遇到了麻烦. 这是我尝试重新创建 SensorFactory 类的尝试: #include#include#include"S
..
我正在尝试使用Opencv VideoWriter传输h264流,以使用VideoCapture在网络上的另一台PC上获取它.但是,我被困在VideoWriter上.该代码的执行将返回错误,并且out.isOpened()始终为false. int FOURCC = cv :: VideoWriter :: fourcc('H','2','6','4');cv :: VideoWriter o
..
我正在用c编写一个gstreamer-1.0插件.我需要通过其他元素通过管道将参数从一个插件传递到另一个插件.我想使用元数据.我只需要传输一个“双精度"类型变量,并希望避免定义新的元数据及其API.我试图搜索已定义但未找到任何内容的元数据列表. 我的问题是:已经定义了具有这些特征的元数据吗? 解决方案 很遗憾,我不知道您可以使用任何通用的元类型.如果您想与我们分享您要传递给他人的数据
..
我正在尝试使用gstreamer管道在计算机上的vlc中查看rtp流.我主要研究了线程.我的最终结果是这样的 #!/usr/bin/env python进口gi将numpy导入为npgi.require_version('Gst','1.0')从gi.repository导入Gst,GObject导入时间RtpPipeline类(对象):def __init __():self.number_f
..
首先,我拥有带有Gstreamer库的python 3. print(cv2.getBuildInformation()) 它显示Gstreamer,旁边是"YES". 这是在rasperryPi 3中使用gstreamer的发送器代码. gst-launch-1.0 v4l2src device ="/dev/video0"!video/x-raw,width = 320,he
..
我创建了管道 gst_parse_launch("rtspsrc location = rtsp://192.168.0.77:554/user = admin_password_ = tlJwpbo6_channel = 1_stream = 0.sdp?real_stream!queue!rtph264depay!h264parse!splitmuxsink muxer =\"mp4mux n
..
我正在使用5个IP摄像机,每个摄像机都给了我5个RTSP流.我正在选择这些RTSP视频流中的任何一个,并将它们与我的麦克风(音频RTSP流源)混合,然后将其广播到RTMP服务器. 我试图进行无缝流传输,这意味着从摄像机切换到摄像机时不应有任何延迟.在摄像头切换到摄像头期间,服务器应该会从我的流客户端PC看到连续的流. 我看到管道随机崩溃,并给了我很多错误消息.知道如何解决吗? 解
..
我正在尝试运行qt示例应用程序之一,而没有进行任何修改.它被称为 player ,它是一个多媒体小部件演示.我的系统是Ubuntu 16.04 64位.当我尝试播放视频时,在控制台中看到以下错误: 没有适用于'video/x-h264 类型的解码器 尝试两个不同的视频后,出现完整错误: 开始/home/aras/Qt5.7.0_Sept2016/Examples/Qt-5.7/mult
..