ffmpeg相关内容
我想使用蓝牙耳机作为音频源来录制视频.我可以使用 arecord -D bluetooth -f s16_le -c1 -r8000 命令和管道音频到 ffmpeg.但这会导致音频和视频的同步问题.所以我想在没有 arecord 的情况下捕获音频.如何在 ffmpeg 命令中将蓝牙设备定义为音频源? 我的 asoundrc 文件: pcm.bluetooth {类型蓝牙个人资料“自动"}c
..
这是一个使用 OpenCV 读取 picam 的小型 python3 脚本: #picamStream.py导入系统,操作系统从 picamera.array 导入 PiRGBArray从 picamera 导入 PiCamera导入时间导入 cv2# 初始化相机并获取原始相机捕获的引用相机 = PiCamera()相机分辨率 = (960, 540)相机帧率 = 30rawCapture
..
我正在尝试为 Raspberry Pi(在 Debian OS aka Raspbian 上运行)编译 Xuggler, 我按照此处提供的“基本构建说明"来编译 Xuggler. 在我成功安装了所有先决条件并设置了正确的路径后,我运行了以下命令: ant 运行测试 一段时间后,我遇到以下错误,并且在 libx264 上构建 ant 失败: {在日志末尾滚动以查看问题} co
..
有谁知道 ffmpeg linux arm 平台的任何工具链,其中包含 arm-linux-androideabi-pkg-config 工具? Android NDK 不包含它.还有人成功为包含 alsa 设备的 android 构建 ffmpeg 吗?请注意,libasound 存在于我的 Ubuntu x86 PC 上. 经过非常广泛的研究访问论坛,包括 ffmpeg.org、f
..
在 OSX 上构建 pHash 0.9.4 可能会很棘手.对于那些遇到问题的人,我下面有点冗长的回答可能会有所帮助. 解决方案 确保您的 macports 已完全更新并正常工作.这意味着最近的 Xcode,在 Xcode 首选项->下载->组件中安装命令行工具! $ sudo 端口 selfupdate# 如果您之前遇到过构建问题:$ sudo port clean --all#
..
是否可以在通用 Windows 应用程序中加载视频并从中提取单个帧(作为图像)? 解决方案 有两个命名空间可以让你获取帧: “Windows.Media.Capture"命名空间.如果您想从相机捕获视频,请使用它,然后阅读“使用 MediaFrameReader 处理媒体帧"https://docs.microsoft.com/en-us/windows/uwp/audio-vide
..
当我通过 FFMpeg 对视频进行编码时,我想在第一个视频帧之前放一张 jpg 图像,因为当我将视频嵌入带有“video"html5 标签的网页时,它会将第一张图片显示为初始图像.或者,我想将图像编码为 1 帧视频并将其连接到我的编码视频.我不想使用“video"html5 元素的“poster"属性. 解决方案 您可以使用 concat 过滤器来做到这一点.确切的命令取决于您希望启动画面
..
我试图让 av_seek_frame() 函数转到我指定的字节位置.我正在为我的应用程序实现帧精确搜索机制,按照我的看法,我将扫描整个视频文件,并将每个关键帧的字节位置存储在一个结构中.我找到了获取当前字节位置的位置:AVPacket.pos.我现在用 av_seek_frame 测试这个位置,如下所示: av_seek_frame( pFormatCtx, videoStream, 11028
..
我正在尝试调整较大视频的大小以适合我拥有的区域.为了实现这一点,我首先计算调整大小的视频的尺寸,使其适合我的区域,然后我尝试向该视频添加填充,以便最终结果具有所需的尺寸,同时保持纵横比. 假设我的原始视频尺寸为 1280x720,为了适合我的 405x320 区域,我首先需要将视频大小调整为 405x227.我这样做.此时一切都很好.我做了一些数学计算,我发现我必须在顶部和底部添加 46 像
..
我正在编写一个视频编辑器,我需要寻找精确的帧,知道帧数. stackoverflow 上的其他帖子告诉我 ffmpeg 可能会在查找后给我一些断帧,这对播放来说不是问题,但对视频编辑器来说是个大问题. 而且我需要按帧号,不是按时间搜索,转换成帧号会不准确. 我读过 dranger 的 tuts(现在已经过时),最后得到: av_seek_frame(fmt_ctx, video
..
我想使用 ffmpeg 从 RTSP 视频中获取帧.但是对于上面的 android 10,我收到如下错误. E/FFmpeg:尝试运行时出现异常:[Ljava.lang.String;@55e447fjava.io.IOException:无法运行程序“/data/user/0/com.example.downloadimagefromurl/files/ffmpeg":error=13,权限
..
目前我有 80mb 的电影,我想使用 ffmpeg 将其转换为大约 10mb 或 15mb.我知道会有质量损失,但他们需要有声音.有没有办法指定文件大小或比我以前所做的更高的压缩率 ffmpeg -i movie.mp4 -b 2255k -s 1280x720 movie.hd.ogv 他们目前大约 25mb 一块 解决方案 如果您的目标是特定的输出文件大小,最好的方法是使用 H.2
..
我有 1920x1080 的 mp4 视频.我想将视频裁剪为 480x270 没有质量损失. 我正在使用以下命令: ffmpeg -i input.mp4 -filter:v "crop=480:270:200:200" -crf 23 output.mp4 我也试过: ffmpeg -i input.mp4 -filter:v "crop=480:270:200:100" -c:a
..
我希望能够记录 FFMPEG 进程,因为我正在尝试计算转换一分钟的视频需要多长时间,以帮助规划我的视频编码服务器的容量.如何启用日志记录以及日志文件保存在哪里.我在 CentOS LAMP 机器上安装了 FFMPEG. 解决方案 FFmpeg 不会写入特定的日志文件,而是将其输出发送到 标准错误.要捕获它,您需要 在生成时捕获并解析它 将标准错误重定向到一个文件并在该过程完成后读取
..
我正在使用 ffmpeg 编辑视频,我必须在其中查看更深的时间戳,从几秒到几毫秒.我知道这样的命令:ffmpeg -i a.ogg -ss 00:01:02 -to 00:01:03 -c copy x2.ogg.这使用秒,但我想减少到毫秒. 解决方案 你可以试试: ffmpeg -i a.ogg -ss 00:01:02.500 -t 00:01:03.250 -c copy x2.o
..
我已经编译了 ffmpeg 库,它在我的文件夹中成功创建了许多文件. 现在我需要在我的 Xcode 项目中实现相同的功能.添加到我的项目的最佳方式是什么. 我想创建一个框架,但我需要添加哪些文件? 编译后我有很多 .c 文件和 .a 文件可用. 解决方案 过去我已经成功使用了 此构建脚本 用于集成 ffmpeg. 除非另有说明,否则遵循 Objective-C 和
..
我正在寻找一种有效的方法来执行以下操作: 使用多个源视频(长度大致相同),我需要生成一个输出视频,该视频由所有在其自己区域中运行的原始源组成(例如一堆 PIP 有几种不同的尺寸).所以,最终的结果是所有的原件都是并排运行的,每个都在自己的区域/盒子里. 源和输出必须是 flv 并且我使用的平台是 Windows(在 Windows 7 64 位上开发,部署到 Windows Serve
..
我需要使用 FFmpeg 库将几个 jpg 文件加入视频中.但是我在阅读这些文件时遇到了问题.这是一个读取图像文件并制作 AVFrame 的函数: AVFrame* OpenImage(const char* imageFileName){AVFormatContext *pFormatCtx;if(av_open_input_file(&pFormatCtx, imageFileName, N
..
我想要的是 1. 从流源获取视频包2. 解码3. 并将解码后的数据写入视频文件(avi、mpeg 等) 我可以从文件中获取视频数据包(作为 AVPacket),也可以解码并保存为图像.(原始)(FFmpeg 教程展示了如何做到这一点).但我不能(不知道)将该视频数据写入一个文件(其他)可以由媒体播放器(例如 VLC)播放. 最美好的祝愿 Ps:如果可能的话,真实的代码示例会很棒.
..
我想以指定的间隔在 120 秒的视频中叠加多个图像(比如 5 个),例如在 3-7 秒之间叠加图像 1.是否可以不将视频分成多个部分? 解决方案 基本方法是 ffmpeg -i video -i image1 -i image2 -i image3-filter_complex"[0][1]overlay=x=X:y=Y:enable='between(t,23,27)'[v1];[v1
..