video-encoding相关内容
各位, 我正在尝试了解视频比特率、图像大小、编解码器和文件大小之间的关系。例如,如果我有一部电影,图像为1920*1080像素,码率为24 Mbps,长度为2小时,使用的编解码器为H.264,如何才能近似文件大小? 我们可以暂时忽略音频。 任何指针都将不胜感激。 问候您, Peter 推荐答案 您有码率和长度,所以只需将它们相乘即可: 24 Mbps*2
..
我看到了很多关于将moov原子从MP4视频容器的末尾重新定位到开头的问题,以使视频“网络优化”或更容易流媒体。似乎大多数工具在第一次编码视频时都需要显式选项来执行此操作(如果视频可用)。 如果将原子放在开头可以更好地进行流媒体工作,而且事后这样做的成本很高,那么我为什么要用原子放在结尾来编码视频呢?有什么好处? 推荐答案 对文件末尾的MOOV进行编码通常是视频编码器的默认操作,因为它
..
我正尝试在带有NVIDIA GTX图形处理器的Media Foundation中使用硬件加速编码。 虽然我可以看到注册了Quick Sync的MFT(适用于我的i7),但我看不到Nvidia的MFT。我也可以看到一个通用的Microsoft H.64编码器MFT,但这似乎只是软件和同步。 如果我选择Microsoft Encode One,并尝试硬件加速它(通过传递d3D设备并为其分配一个直接的
..
我使用复杂的过滤创建了一个不那么简单的ffmpeg命令,将开场/闭幕字幕附加到视频中。在同一过程中,视频被调整大小并重新编码。这在我测试的所有播放器中都运行良好。 当我省略-过滤_Complex arg和图像输入时,生成的文件在vlc中按预期播放,但在Windows Media player中只有音频(无视频)。 这都是在Windows 10上使用标准Windows批处理文件完成的。
..
我想使用 ffmpeg 将两个 mp4 视频组合成一个 mp4 视频. 到目前为止我尝试的是 ffmpeg -i input1.mp4 -i input2.mp4 output.mp4 但是,每次我使用第一个输入的视频编解码器而不是另一个输入的视频时.我怎样才能将它们结合起来?对此的任何想法都将受到高度赞赏. 解决方案 请阅读 FFMPEG FAQ 了解有关加入文件的信息.
..
我想将我拥有的一组位图编码为 h264.这可以通过 MediaEncoder 实现吗?为了做到这一点,我编写了一些代码,但无法在我尝试过的任何媒体播放器中播放输出.以下是我主要从 Stackoverflow 上找到的其他来源借用的一些代码. mMediaCodec = MediaCodec.createEncoderByType("video/avc");mMediaFormat = Media
..
我知道使用 FFMPEG 是可能的,但是如果我有部分文件(例如没有开头和结尾)该怎么办.是否可以从中提取一些帧? 解决方案 命令 ffmpeg -ss 00:00:25 -t 00:00:00.04 -i YOURMOVIE.MP4 -r 25.0 YOURIMAGE%4d.jpg 将提取帧 从 25 秒开始 [-ss 00:00:25] 在 0.04 秒后停止 [-t 00:
..
我在目录中保存了一组作为图像的视频帧,我正在尝试将它们编码为高质量的视频,但是我尝试的每种设置和每种格式都会产生非常明显的伪影. 基本命令是这样的: ffmpeg -r 25 -i %4d.png myvideo.mpg 我已经尝试了 minrate 和 maxrate 标志.任何 {mpg、avi、mov、flv} 格式都可以. 对设置有什么建议吗?最终文件大小不是问题.
..
我正在尝试使用 C++ 在虚幻引擎 4 中编码视频.我可以访问单独的框架.下面是读取 viewport's 显示像素并存储在缓冲区中的代码. //安全获取渲染目标资源.FRenderTarget* RenderTarget = TextureRenderTarget->GameThread_GetRenderTargetResource();FIntPoint 大小 = RenderTarget
..
我真的坚持这个问题,因为我还没有在互联网上看到足够的关于 iOS 视频编码的信息,但是我们可以观察到很多成功处理视频流问题的应用程序(skype、qik、justin.电视等) 我将开发一个应用程序,该应用程序应该将从相机获得并以 h.263(h.264 或 MPEG-4 正在决定)编码的视频帧发送到网络服务器.为此,我需要一些视频编码库.显然,ffmpeg 可以处理该任务,但它是在 LGPL
..
我正在寻找一种方法,可以在我的 Debian Wheezy 系统上旋转使用 Nexus 4 拍摄的视频.视频是以纵向模式拍摄的,我想将它们旋转到横向模式.最好是由命令行驱动的旋转. 我发现了几个之前的问题,它们暗示了一个很好的解决方案,但我似乎无法让它发挥作用. 首先有一个问题:使用 FFmpeg 旋转视频 但这表明 ffmpeg 已经过时,我应该使用 avconv.我发现这个问
..
我正在研究一种可能性,可以存储来自少数已经以 h264 编码的源的视频流,而无需进行视频转码,因为我想用于该项目的设备将无法即时转码组合视频. 我要找的是两张或更多张并排的图片(不是视频连接)打包成 mp4/avi/mkv. 我相信 mkv 容器支持这种包装,但我一直无法为 ffmpeg 或其他工具找到合适的选项来以这种方式存储它.它所做的是将非常慢的视频转码成一个大的 h264 流.
..
我想使用 C++ 代码从位图图像制作 .avi 视频文件.我写了以下代码: //从bmp文件中获取RGB数组数据uint8_t* rgb24Data = 新的 uint8_t[3*imgWidth*imgHeight];hBitmap = (HBITMAP) LoadImage( NULL, _T("myfile.bmp"), IMAGE_BITMAP, 0, 0, LR_LOADFROMFIL
..
使用 ffmpeg 进行 CENC 加密的正确语法是什么? ffmpeg 3.0 发行说明包括“通用加密 (CENC) MP4 编码和解码支持",文件 libavformat/movenccenc.h 和 libavformat/movenccenc.c 似乎包括根据通用加密加密 MP4 文件所需的一切标准. 但是,我在 ffmpeg 手册页中找不到关于此主题的任何文档. 问候
..
当我尝试将帧写入视频时,我不断收到断言错误.我得到的错误是这样的: 回溯(最近一次调用最后一次):文件“VideoMixer.py",第 23 行,位于 cv.WriteFrame(writer, cv.LoadImage(fileName))cv.error: dst.data == dst0.data 这是我的脚本: 导入简历导入系统文件 = sys.argv[1:]对于
..
我有一个视频文件和一个音频文件.是否可以将其合并为一个带有声音文件的视频.我认为 AVMutableComposition 应该可以帮助我,但我仍然不明白如何.有什么建议吗? 解决方案 谢谢 Daniel.我想通了,很简单. AVURLAsset* audioAsset = [[AVURLAsset alloc]initWithURL:audioUrl options:nil];AVUR
..
我正在尝试使用 Android MediaCodec API 对 NV12 流进行硬件编码 (avc). 使用 OMX.qcom.video.encoder.avc 时,分辨率 1280x720 和 640x480 工作正常,而其他分辨率(即 640x360、320x240、800x480)产生色度分量似乎发生偏移的输出(请参阅 快照). 我已通过将输入图像保存到 jpeg 文件来仔细
..
我正在尝试从文件中解码视频,并在 API 级别 21 及更高版本(Android)支持的新异步模式中使用 MediaCodecOS 5.0 棒棒糖). 在Big Flake、Google 的 Grafika,以及 StackOverflow 上的数十个答案,但都不支持异步模式. 我不需要在这个过程中显示视频. 我相信一般的过程是使用 MediaExtractor 作为输入到 Me
..
我正在尝试让它在 Android 4.1 上运行(使用升级的 Asus Transformer 平板电脑).感谢 Alex 对我上一个问题的回答,我已经能够将一些原始 H.264 数据写入文件,但是此文件只能使用 ffplay -f h264 播放,而且似乎丢失了有关帧率的所有信息(播放速度极快).颜色空间看起来也不正确(atm 在编码器端使用相机的默认设置). 公共类 AvcEncoder {
..
我需要在运行时将 AS3 中的视频图像数据(比如显示对象)压缩为具有高压缩率的字节数组.帧率只需要在 5 左右,但 1024x768 视频需要转到
..