gstreamer相关内容
我正在寻找对可在 html5 视频标签中查看的网络摄像头流进行编码的最快方法.我正在使用 Pandaboard:http://www.digikey.com/product-highlights/us/en/texas-instruments-pandaboard/686#tabs-2 用于硬件.可以使用gstreamer、cvlc、ffmpeg.我将使用它来驱动机器人,因此视频流中需要最少的延迟
..
我为每个 Gstreamer 类型编写了 C++ 包装器.它们简单直观,因此我认为不需要在此处发布它们的实现(尽管我可以在需要时发布它们(也许在 github 上)). 我面临的问题是我开始播放视频(并使用 gst tee 元素同时将其保存到文件中)......在播放时,我暂停(来自不同的线程),效果很好.但是,当我想恢复它时,它不起作用: void pause(){_pipeline.s
..
我可以像这样使用 gstreamer 的 gst-launch 在命令行上播放视频: gst-launch gnlfilesource location=file:///tmp/myfile.mov start=0 duration=2000000000 !自动视频接收器 这会播放/tmp/myfile.mov 中文件的前 2 秒,之后视频播放停止.有没有办法让它重复循环?即将 2 秒长的 g
..
我是 AudioCuesheetEditor 的开发人员,这是一个用于编辑音频提示表的应用程序.新版本应该可以播放声音,所以我想使用gstreamer作为后端.我在 gstreamer 中进行了一些调查,发现我需要使用带有 gstreamer-sharp 0.99.x 绑定的 1.x 版.没问题,下载了 gstreamer-sharp 0.99.0,用 monodevelop(在 linux 上)
..
我使用 Nitrogen6x 板和 ov5640 相机(mipi). 相机未使用标准的 v4l/v4l,但我们可以使用 GStreamer 为其驱动程序 (mfw_v4l) 流式传输视频: gst-launch mfw_v4lsrc !自动视频接收器 我想通过 GStreamer(OpenCV 内的 GStreamer)调用它来使用 OpenCV 中的相机.我问了一个关于在 OpenCV
..
我正在使用 OpenCV VideoCapture 捕获视频帧.捕获工作正常,因为我可以使用这样的帧: cv::VideoCapture cap("v4l2src device=/dev/video1 ! videoscale ! videorate ! video/x-raw, width=640, height=360, framerate=30/1 ! videoconvert ! app
..
我想用 Qt 创建一个简单的 GUI 应用程序,可以播放本地视频文件.我可以使用 Phonon 来完成幕后的所有工作,但我需要更多的控制权.我已经成功地使用 decodebin 和 autovideosink 元素实现了 GStreamer 管道.现在我想使用 Qt 小部件将输出引导至. 有没有人成功地做到了这一点?(我想是的,因为有基于 GStreamer 的基于 Qt 的视频播放器.)有
..
使用新的 android gradle 插件更新到 Android Studio 3.0.0.内置项目收到消息时: 出了什么问题:任务“:app:externalNativeBuildDebug"的执行失败.目标“gstreamer_android"在“gst-build-arm64-v8a/libgstreamer_android.so"的预期输出文件,但没有 但是libgstreamer_
..
我正在尝试构建与 gstreamer-sdk-android-arm-debug-2013.6 捆绑的教程.src/jni目录下的Android.mk文件(教程1项目)引用了GSTREAMER_SDK_ROOT等环境变量.据我所知,Android Studio 不会使用/将环境变量传递给构建脚本.是否有修改 makefile 和定义/检索构建脚本所需的键/值对的最佳实践? 解决方案 好的,
..
网上有很多使用带有“tcpclientsink"的GStreamer管道的例子;或“udpsink"使用 NodeJS 使用 GStreamer 管道输出到 Web 浏览器. 但我找不到任何示例或文档,它们清楚地解释了如何使用 webrtcbin 管道和 NodeJS 服务器将流发送到 Web 浏览器. 我有以下 GStreamer 管道: gst-launch-1.0 videot
..
我想在 gstreamer 中使用 edgedetect.我之前检查过gst-inspect.这是我的结果: login@machine:~$ gst-inspect opencv没有这样的元素或插件“opencv"login@machine:~$ gst-inspect edgedetect没有这样的元素或插件“edgedetect" 安装的插件是: sudo apt-cache show
..
我正在尝试通过 glib 库在我的 Ubuntu 16 机器上使用 Gstreamer 将来自网络摄像头的视频和音频录制到文件中. 我可以通过这些代码行观看来自网络摄像头的视频流 #include int main(int argc, char *argv[]) {GstElement *pipeline, *source, *sink, *convert;GstBus *总线;GstMess
..
我正在尝试使用 gstreamer 通过 RTP 将视频文件从一台设备流式传输到另一台设备.在发送方,我使用以下命令: gst-launch filesrc location=/home/kuber/Desktop/MELT.MPG !解析!rtpsend ip=localhost 但这会产生以下错误:没有元素“rtpsend",我下载了所有 rtp 工具,但仍然出现相同的错误.我是否
..
我想制作一个GStreamer应用程序,该应用程序将图像数据作为源而不是文件位置.我的意图是显示通过tcp收到的图像.当tcp获得图像数据(字节数组)时,应将数据直接传递到gstreamer插件,而无需将其保存在本地. 解决方案 multifilesrc应该可以完成工作. 说明 从顺序命名的文件中读取缓冲区.如果与图像解码器,需要使用"caps"属性或capsfilter来强制
..
我正在尝试通过本地网络将树莓派摄像机的视频流传输到我的PC. 在RaspberryPi端,我通过以下命令使用gstreamer: raspivid -n -t 0 -rot 270 -w 960 -h 720 -fps 30 -b 6000000 -o-|gst-launch-1.0 -e -vvvv fdsrc!h264parse!rtph264pay pt = 96 config-i
..
我可以在此处编译第一个gstreamer教程..> 但是,当尝试运行它时,我收到这样的警告: (basic-tutorial-1:27661):GStreamer-警告**:无法加载插件'/usr/lib/gstreamer-0.10/libgstffmpeg.so':/usr/lib/x86_64-linux-gnu/libavcodec.so.53:未定义符号:lame_set_VBR_q
..
我有一个音频流,我想将其保存为按时间分割的单个可播放文件. 如果我理解正确,splitmuxsink会对视频文件执行此操作,而对仅音频文件不执行此操作. 这里有一些有关如何完成此操作的提示: 所以我不明白为什么纯音频文件不能使用.特别是由于视频文件通常被视为仅包含音频的视频文件. 编辑下面的命令应每隔1分钟生成一次AC3/MP4文件: gst-launch-1.0 -e
..
我想录制来自麦克风的音频,并立即使用gstreamer从同一台PC的扬声器播放音频.换句话说;在输入和输出之间建立连线几个样本,然后立即播放.我可以使用以下代码将音频记录到ogg文件中: #!/usr/bin/env python进口gigi.require_version('Gst','1.0')从gi.repository导入GObject,Gst,GtkGObject.threads_in
..
我想创建一个gstreamer管道来连续播放两个mp4视频.可以使用gst-launch玩吗?我可以为此目的使用multifilesrc吗? 请向我展示播放两个视频的路径. 提前谢谢! 解决方案 实际上没有使用单个gst-launch命令执行此操作的方法.当您使用multifilesrc时,视频解码器会在第一个视频结束后发送一个流结束事件. 如果您不习惯使用gst-lau
..
我有这个使用Pocketsphinx的VAD元素的管道: Gst.parse_launch(“" pulsesrc设备= \"alsa_input.usb-046d_08c9_674634A4-02-U0x46d0x8c9.analog-mono \""+“!vader name = vad auto-threshold = true" +“!level name = wavelevel int
..