python-gstreamer相关内容
我有一段代码,它当前获取一个视频,并使用用于Python的GStreamer绑定在屏幕上显示它。我可以在播放器打开时点击“前进”按钮来搜索视频,这对我来说是一个重要的功能,因此我不想使用解析来编写管道并将其发送到GST-Launch。 我现在想要做的是不仅将这个视频流到一个新打开的窗口,而且(或者只有在我不能两者兼有的情况下)通过RTSP在VLC甚至通过局域网的另一个客户端打开它。有什么办法
..
我有一个简单的Python程序,使用gst-rtsp-server创建一个RTSP流。它可以工作,但目前没有错误处理。如果管道有打字错误或连接到视频源时出现问题,我看不到堆栈跟踪或任何日志记录。我应该在哪里挂接代码来处理这样的问题? 我应该提一下,我完全是GObject世界的初学者。我怀疑这些库有一种标准的方法来报告错误,但我在我读到的有关如何做到这一点的文档中找不到任何东西。 如果有
..
我在枚举多个操作系统上的Python中的摄像头时遇到一些问题。 以下是我尝试过的一些方法: import cv2 as cv num = 0 while 1: cap = cv.VideoCapture(num) if cap.isOpened(): # working capture num += 1 else:
..
我正在尝试使用 gstreamer 通过 RTP 将视频文件从一台设备流式传输到另一台设备.在发送方,我使用以下命令: gst-launch filesrc location=/home/kuber/Desktop/MELT.MPG !解析!rtpsend ip=localhost 但这会产生以下错误:没有元素“rtpsend",我下载了所有 rtp 工具,但仍然出现相同的错误.我是否
..
我正在尝试使用gstreamer管道在计算机上的vlc中查看rtp流.我主要研究了线程.我的最终结果是这样的 #!/usr/bin/env python进口gi将numpy导入为npgi.require_version('Gst','1.0')从gi.repository导入Gst,GObject导入时间RtpPipeline类(对象):def __init __():self.number_f
..
概述:因此,这是我最后一个问题的跟进工作( 问题:我的下一个问题似乎涉及一种微小的比赛情况,涉及我的麦克风已经在使用中,需要能够记录一些东西. 想象以下内容: 我启动了我的python守护进程,它目前正在监听. 我对着麦克风说话,然后问好Hello Scarlett(Pocketsphinx匹配关键字并立即开始记录所有输入) 应该将音频记录到/tmp/目录中的wav文件中,并且应该
..
我有python gstreamer-使用"autoaudiosrc"元素记录音频的1.0代码.我的问题是在“预定义"几秒钟后停止管道,最好以gstelement格式添加管道. 用于记录的当前管道: gst-launch-1.0 autoaudiosrc num-buffers=100 ! audioconvert ! vorbisenc ! oggmux ! filesink loc
..
我正在将程序从pygst 0.10移植到1.0,并且管道存在问题.我在0.10版本中使用的并且效果很好的管道是: udpsrc name=src ! tsparse ! tsdemux ! queue ! ffdec_h264 max-threads=0 ! identity ! xvimagesink force-aspect-ratio=True name=video 对于1.0版本
..
我一直在尝试将2个视频与gstreamer结合在一起, 使用gstreamer&在它们之间的短暂过渡(如smpte) gnonlin在python中.但是我无法使gnloperation/smpte过渡正常工作. 目标 下面是一个程序.我希望它播放一个文件的前4秒,并在2秒开始播放到另一个文件的快速过渡(持续2秒). (因此第二个文件将在整个播放过程中播放2秒钟,但在2秒钟的转换过程中
..
我有一个gstreamer应用程序,在其中创建带有图像的视频.我需要在预定的时间内创建视频.我想在预定义的时间后发送EOS.我知道可以使用gstClock中的new_single_shot_id来实现.但是我找不到任何有关如何使用new_single_shot_id创建触发器的示例,该触发器绑定到将eos发送到管道的函数. 我的简化管道代码是这样的. class Main(object
..
我有一个视频文件,我想剪切出一些场景(通过时间位置或帧来标识).据我了解,使用gnonlin应该可以实现,但是到目前为止,我还没有找到如何实现这一点的示例(理想情况下是使用Python).我不想尽可能修改视频/音频部分(但可以转换为mp4/webm). 我是否正确认为gnonlin是gstreamer宇宙中执行此操作的正确组件?我也很高兴能找到一些指示/方法来解决这个问题(gstreamer
..
在我的程序中,我使用PyGObject/PyGI和GStreamer在我的GUI中显示视频.视频显示在Gtk.DrawingArea中,因此我需要在realize -signal-handler中获取它的窗口句柄.在Linux上,我使用以下方法获取该句柄: drawing_area.get_property('window').get_xid() 但是如何在Windows上获取句柄?
..
我有以下Python 2.7/PyGObject 3.0/PyGST 0.10模块: from gi.repository import Gtk, Gdk, GdkPixbuf import pango import pygst pygst.require('0.10') import gst import Trailcrest import os, sys import cairo fro
..
我正在尝试使用gst从现有管道中的帧生成hls视频.一旦我将帧作为一个numpy数组,就使用以下代码创建ts和m3u8文件: appsrc emit-signals=True do-timestamp=true is-live=True caps={DEFAULT_CAPS}".format(**locals()) !
..
我正在尝试测量通过网络播放视频时所需带宽的变化。为此,我需要绘制视频期间随时播放视频所需的带宽图表。 我尝试使用gstreamer处理视频,但是它给了我已解码[未编码]视频的比特率,该比特率或多或少是恒定的。 有没有一种方法可以获取一段时间内视频的编码比特率? 解决方案 由于我在这里没有答案,因此我将发布自己找到的解决方案,以便对他人有所帮助。 Vlc python绑定向
..
我正在尝试使用python中的 Gstreamer 将 .mp4 流式传输到RTSP服务器 import sys import gi gi.require_version('Gst', '1.0') gi.require_version('GstRtspServer', '1.0') gi.require_version('GstRtsp', '1.0') from gi.reposito
..
我正在尝试将opencv图像放入python中的gstreamer rtsp服务器中. 我在mediafactory中写了一些问题,我是gst-rtsp-server ancd的新手,几乎没有文档,所以我不确定我是否使用正确的方法.我正在使用一个线程来启动MainLoop,并且正在使用主线程来创建一个缓冲区,以推入mediafactory管道的appsrc元素.我是否使用正确的方法来实现目标?谁能
..