ffmpeg相关内容
我想从一个需要使用FFmpeg登录的网站下载HLS视频,这意味着我必须输入我的用户名和密码才能访问视频,我不知道如何通过FFmpeg输入登录信息... 有人能帮帮我吗? 推荐答案 HLS是一种自适应流媒体协议,通过将视频文件分成多个不同数据速率的小块,可以自动调整视频流,从而获得更好的视频播放体验。因为现在你有很多小块,你不能直接下载视频。事实上,您甚至找不到指向该视频文件的直接下载链
..
我看到有一些关于此主题的问题,但我仍然收到错误。我所要做的就是将库中的视频转换为HEVC格式,以便它们占用更少的空间。 我试过了: ffmpeg -i input.mp4 -c:v libx265 output.mp4 Ffmpeg似乎需要很长时间,输出大小似乎也差不多。视频可以用VLC播放,但图标很奇怪,当我尝试用QuickTime打开它时,我收到错误消息:‘无法打开文档“outpu
..
在Mac OS 10.13.6上安装OpenCV后: conda install -c conda-forge ffmpeg conda install -c conda-forge opencv 和在视频写入器中使用fourcc = cv2.VideoWriter_fourcc('h', '2', '6', '4') 我收到错误: OpenCV: FFMPEG: tag 0
..
日安, 我想知道是否可以在不使用ffmpeg重新编码的情况下将mp3文件的一部分“联接”到另一个文件。我需要在音频mp3文件前面加上静音以确保其长度为60秒。 即,如果我的音频文件.mp3为40秒,则需要在不重新编码的情况下添加20秒的静默时间。 我的想法是以与我的音频相同的CBR和采样率(44100和40kbps)获得60秒长的静默mp3(silence.mp3)。然后,我需要
..
我参考this问题用FFmpeg lib创建了一个屏幕录制器。但问题是录制的视频太快了。如果我录制屏幕20秒,我会得到不到10秒的视频。视频内容完整,但播放速度太快,需要6到10秒才能完成。 我尝试将数据包和帧的PTS值更改为以毫秒为单位的已用时间。 outPacket->pts=timer->ElapsedTimeM()*90 and outFrame->pts=timer->Elapse
..
我的文件夹中有三个.wav文件,我想用ffmpeg将它们转换为.mp3。 我编写了此bash脚本,但当我执行它时,只有第一个脚本被转换为mp3。 我应该怎么做才能让脚本继续浏览我的文件? 这是脚本: #!/bin/bash find . -name '*.wav' | while read f; do ffmpeg -i "$f" -ab 320k -ac 2 "$
..
我有一个用例,我需要将716x1280MP4视频缩小到358x640(原始视频的一半)。我使用的命令是 ffmpeg -i ./input.mp4 -vf "scale=640:640:force_original_aspect_ratio=decrease,pad=ceil(iw/2)*2:ceil(ih/2)*2" ./output.mp4 在10个样本视频中,有2个受到了颜色的影响
..
我通常使用ThumbnailMe制作缩略图的联系表。我的默认设置是15行x 5列,所以75个图像,在45分钟到大约90分钟的任何地方。ThumbnailMe几乎可以瞬间制作出这样大小的接触表。最近的一个要求是为很多视频制作很多联系人表,这让我考虑了一个命令行选项,这样我就可以成批地执行这些操作。我尝试了几种不同的方法从命令行制作缩略图: ffmpeg -ss 300 -i myvideo.a
..
大家好,我正在尝试使用ffmpeg为VoD创建Web-Dash清单,但我在使用VP9编解码器时遇到此错误Could not write header for output file #0 (incorrect codec parameters ?): Operation not permitted Error initializing output stream 0:2 --,不了解该错误以及如何
..
我正在尝试从here获取使用phantomjs录制网页的示例,并通过管道将标准输出(即图像)传递给ffmpeg命令以创建视频。声明您需要运行的命令是: phantomjs runner.js | ffmpeg -y -c:v png -f image2pipe -r 25 -t 10 -i - -c:v libx264 -pix_fmt yuv420p -movflags +faststa
..
我正在尝试将视频放在背景图像上,但生成的输出视频没有音频。有没有办法让音频保持原样? def ConvertVideo(source,background,start,end,dest): stream = ffmpeg.input(source) strea1 = ffmpeg.input(background) duration = end - start
..
示例代码: from moviepy.editor import * clip = VideoFileClip('video.mp4') clip.write_videofile('video2.mp4', fps=30) 在显示以下消息后,表示正在构建和编写视频 Moviepy - Building video video2.mp4. Moviepy - Writing vide
..
我正在制作一个视频动画师,首先从htmlcanvas标签生成.jpg图像,然后使用这些图像作为视频的帧。我正在使用ffmpeg进行视频生成。 仅使用1张图片时有效 const ffmpeg = require('fluent-ffmpeg'); ffmpeg.setFfmpegPath("C://Program Files/ffmpeg/bin/ffmpeg.exe"); var c
..
我有一台标准的MP4(音频+视频) 我正在尝试将1.4秒的迷你MP4剪辑合并到此曲目中,将视频替换为迷你剪辑的长度,但在特定时间将音频合并在一起 有人知道如何使用ffmpeg执行此操作吗? 我已经尝试了相当多不同的过滤器,但似乎不能得到我想要的 V miniclip.mp4 A
..
此用例是一项服务,它手动将一系列未压缩的.wav媒体片段编码为.m4s片段,以便通过MPEG-DASH进行广播,并使用ffmpeg将.wav压缩为.aac 和sannies/mp4parser将AAC音频组合成.m4s媒体片段。 我创建了this public GitHub project以完整复制该问题。 例如,下面是自定义CustomFragmentMp4Builder.java类
..
我需要用FFmpeg“加密”视频。 我做了很多研究,但没有找到解决问题的方法:( 可以这样做吗? 我需要的: 推荐答案 图像前后示例。 使用crop、hstack和vstack过滤器: ffmpeg -i input -filter_complex "[0:v]crop=iw/2:ih/2:0:0[lt]; [0:v]crop=iw/2:ih/2:o
..
我有一个Node API,可以接受通过客户端FormData上传的视频文件。结果是一个req.file对象: { fieldname: 'media', originalname: 'IMG_6288.MOV', encoding: '7bit', mimetype: 'video/quicktime', buffer:
..
如何创建只包含媒体数据而不包含元数据的校验和,以获得媒体文件的稳定标识。最好是具有支持多种格式的库的跨平台方法。例如VLC、ffmpeg或mplay。 (媒体文件应为通用格式的音频和视频,图像也可) 推荐答案 我不知道任何现有的独立于平台的软件可以实现这一点,但我知道有一种方法可以用解释(平台无关)语言(如JAVA)来完成。 本质上,我们只需要从文件中剥离所有元数据(标记)
..
我刚刚安装了ffmpeg,我正在尝试将我上传的所有视频编码为.mp4文件。目前大多数用户上传.mov,我希望将每个视频都转换为.mp4。 我按如下方式运行该命令: ffmpeg -i movie.mov -vcodec copy -acodec cop out.mp4 但我得到的只是以下错误 ffmpeg version 0.8.5, Copyright (c) 2000-2
..
我想在视频上叠加一层颜色(蓝色、红色、绿色或十六进制值),使其具有类似Instagram滤镜的效果。 我认为应该是这样的: ffmpeg -i video.mp4 -i "red.png" -filter_complex "blend=all_mode='screen':all_opacity=0.7" output.mp4 或可能与all_mode=overlay 但我收到
..