ffmpeg相关内容
有没有办法使用 FFMpeg 从shoutcast 流中获取 ICY 元数据?一种方法是自己处理连接/流并将自定义 IOStream 发送到 ffmpeg. 还有其他简单的方法吗?或多路分离器可用? 谢谢 解决方案 这里讨论了支持它的补丁:http://web.archiveorange.com/archive/v/yR2T400567mWEyyZHg3k 但是,它看起来
..
我需要在 Android 设备上播放视频(不同格式).据我所知,最好的方法是将 Android NDK 与可以播放视频的特定库一起使用.我做了一些基本的例子来了解NDK的用法,但我不知道下一步该怎么做.据我了解,我必须首先安装 ffmpeg.所以我有以下问题: 我需要 ffmpeg(最好的方法是使用 Linux,而不是 Windows,因为在 Windows 中,它的安装存在一些问题).
..
我有 100 个 jpeg. 我使用 ffmpeg 编码为写入硬盘的视频文件. 有没有办法将它直接通过管道传输到字节/流? 我正在使用 C#,我正在使用进程类来启动 ffmpeg. 谢谢 解决方案 using System;使用 System.Diagnostics;使用 System.Drawing;使用 System.IO;命名空间 PipeFfmpeg{课程计
..
我知道有一个帖子做相反的事情:FFmpeg:如何将带有黑色边的垂直视频转换为带有模糊背景边的 16:9 视频 但我不知道如何用 ffmpeg 做到这一点 这里是输入: 这是预期的结果(背景视频应该以相同的纵横比缩放,裁剪为 9/16 并进行模糊处理): 感谢您的帮助! 解决方案 我改编了 Mulvya 提出的解决方案 这是最终结果: ffmpeg -i in
..
我运行的是 OSX,对视频转换一无所知.但是我有 200 个视频,它们都是 mp4 格式,无法在 Firefox 中播放.我需要将它们转换为 ogg 才能使用 html5 视频标签. 这些文件位于文件夹结构中,因此很难一次处理一个文件.我希望 bash 命令或 Ruby 命令遍历所有子文件夹并找到所有 .mp4 并转换它们. 我找到了一个关于如何使用 Google 执行此操作的参考:h
..
我的配置: ubuntu 16.04opencv 3.3.1gcc 版本 5.4.0 20160609ffmpeg 版本 3.4.2-1~16.04.york0 我用以下方法构建了 opencv: cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D PYTHON_EXECUTABLE=$(which
..
我正在尝试使用 ffmepg 创建用于媒体文件转换的 .NET 包装器,这就是我的试过: static void Main(string[] args){if (File.Exists("sample.mp3")) File.Delete("sample.mp3");字符串结果;使用(进程 p = 新进程()){p.StartInfo.FileName = "ffmpeg";p.StartInf
..
我使用的是安装了 MacOS Sierra 的 Mac.我已经用自制软件安装了 ffmpeg.我通过以下方式列出我的设备: ffmpeg -f avfoundation -list_devices true -i "" 返回: [AVFoundation input device @ 0x7fc2de40e840] AVFoundation 视频设备:[AVFoundation 输入设备@0
..
我正在尝试通过 FFMPEG 将一系列图像转换为 mpeg 电影,尽管我一直收到错误消息,说它找不到代码参数(视频:mjpeg).Google 搜索并没有提供多少有用的信息. ffmpeg -f image2 -i/tmp/img%03d.jpg video.mpgFFmpeg 版本 SVN-r0.5.1-4:0.5.1-1ubuntu1,版权所有 (c) 2000-2009 Fabrice B
..
我正在尝试使用 ffmpeg 来解码音频数据.虽然它可以从文件加载,但我想避免使用文件,因为这样做意味着我必须使用临时文件.相反,我想使用标准输入输入数据(我之前加载过). 这可能吗? 例如 手动加载 mp3 文件 将其导入 ffmpeg 生成的进程 获取原始输出 (它也适用于 ffprobe 和 ffplay) 解决方案 ffmpeg 有一个特殊的管道标志,指
..
由于 OBS Studio 缺乏视觉指示器来显示视频的进度(以及何时需要前进到下一个场景),我想知道是否有命令行选项(或解决方案)可以让 FFMPEG重新编码视频并在视频底部显示一个进度条,显示到目前为止视频已经播放了多长时间. 有这样的功能吗? 解决方案 这是一个简单的 3 秒示例,使用动画 叠加: ffmpeg -i input.mp4 -filter_complex "c
..
我在一个文件夹中有十个媒体文件.我想创建一个包含两列的文本文件 - 文件名及其持续时间(秒): video1.mp4|300 秒video2.mp4|360 秒video3.mp4|420 秒...audio10.wav|120 秒 我在网上没有找到任何类似的问题,所以我没有任何关于如何执行此操作的提示... 解决方案 枚举媒体文件并解析 ffmpeg -i 输出中的 Duration
..
我创建了一个包含一组图像和 mp3 的视频.但我想为该视频添加水印文本.我正在使用以下代码添加文本. exec('/usr/local/bin/ffmpeg -y -i output.mov -acodec libmp3lame -vcodec msmpeg4 \-b:a 192k -b:v 1000k -ar 44100 \-vf "drawtext=text=string1 string2
..
我使用的是安装了 Node.js 和 npm 的 Windows(64 位).在我的项目文件中,我运行了以下命令: npm 初始化npm install discord.js --savenpm 安装 ffmpeg --save 现在我刚刚为一个基本的机器人创建了代码这里是主要代码.我在这里列出了重要的: if (message.content === '!play' && message
..
作为标题,我无法使用以下代码在 python 中使用 VideoCapture 读取视频: v = 'C:\\test.mp4'导入 cv2帽 = cv2.VideoCapture(v)如果 cap.isOpened():打印“终于"别的:打印“繁荣" BOOM 一直在打印.叹息 而在 VS11 中,以下代码有效: #include "stdafx.h"#include #includ
..
在我的应用程序中,我录制了一个视频,我想在该视频的右下角覆盖我公司的网址.我用MediaRecorder录制视频,录制没有问题,但是在视频中添加文字我没有成功.我搜索并找到了一些库,如 FFmpeg 和 JavaCV,它们允许用户在视频上叠加文本,但我不知道是否有任何方法可以在 Android 中使用它们.之后找到 OnPreviewFrame ,它返回相机预览的每一帧.我想在用户触摸录制按钮并使
..
我想要一个 PHP 函数,它接收文件的路径并返回有关它的信息数组.PHP文件可以调用FFmpeg. 返回的数据应该类似于 Array([哑剧] =>视频/ogg[容器] =>奥格[视频] =>西奥拉[音频] =>沃比斯[持续时间] =>20.3//以秒为单位)大批([哑剧] =>音频/ogg[容器] =>奥格[视频] =>[音频] =>FLAC[持续时间] =>3)大批([哑剧] =>图像
..
要求是读取目录下的所有文件并合并.我正在使用节点 fluent-ffmpeg 来实现这一点.首先读取目录中的所有文件,并通过添加 .input. 连接字符串 var finalresult="E:/ETV/videos/finalresult.mp4"outputresult :它由目录中读取的所有文件组成./*Javascript*/合并视频(输出结果);功能合并视频(输出结果){conso
..
首先,我几乎没有使用图像制作视频的经验. 我拥有的是一组 BMP 时间戳图像,我想从中生成视频.由于时间戳不是等距间隔,我不能简单地使用从图像创建恒定帧速率视频的软件. 一种可能的解决方案是以固定的时间间隔创建人工图像,但如果我无法制作 VFR 视频,我更愿意将其作为最后的手段. 关于如何实现我想要的有什么建议吗? 解决方案 你可以结合使用两个工具来做到这一点:ffmpe
..
比如... rtsp://user:pass@x.x.x.x/VideoString 解决方案 已经有一段时间了,不确定 11 的故事是什么,但是是的,ffmpeg 现在支持. ffmpeg -i rtsp://user:pass@x.x.x.x/VideoString 有效.
..