x264相关内容
检查 gcc 对 neon 指令 vadd.i16 q0,q0,q0 的支持失败测试.c主函数(){__asm__("vadd.i16 q0, q0, q0");返回0;}arm-linux-androideabi-gcc test.c/tmp/ccfc8m0G.s:汇编器消息:/tmp/ccfc8m0G.s:24:错误:错误指令`vadd.i16 q0,q0,q0' 尝试使用标志 -mcpu=
..
我正在尝试使用 libx264 for Android 构建 FFMPEG. 我可以成功构建和使用适用于 Android 的 FFMPEG,但我意识到我需要编码能力,因此我正在尝试使用 x264 构建 FFMPEG. 我正在使用本教程为 Android 构建 FFmpeg http://www.roman10.net/how-to-build-ffmpeg-for-android/
..
从 wiki,我读到了 FFmpeg 是一个生成库和程序的免费软件项目用于处理多媒体数据.FFmpeg 最值得注意的部分是libavcodec,其他几个使用的音频/视频编解码器库项目,libavformat,一个音频/视频容器复用和解复用库,以及用于转码多媒体文件的 ffmpeg 命令行程序. 那么 ffmpeg 是 avcodec 的包装器吗?而且我经常听到人们使用 ffmpeg 用
..
我在执行命令时遇到错误ffmpeg -i/path/to/video.mp4 : ffmpeg 版本 git-2012-07-24-93342de 版权所有 (c) 2000-2012 FFmpeg 开发人员建于 2012 年 7 月 24 日 23:55:41,使用 gcc 4.4.3(Ubuntu 4.4.3-4ubuntu5.1)配置: --enable-libfaac --enable
..
我在 ubuntu11 上安装了 ffmpeg 0.8.9 ./configure --enable-gpl --enable-nonfree --enable-pthreads--enable-libfaac --enable-libmp3lame --enable-libx264 当我运行它 ffmpeg -y -i test.mp4 -f mpegts -acodec libm
..
我想从我在 matplotlib 中的 Python 脚本中生成的帧创建 h264 或 divx 电影.这部电影大约有 10 万帧. 在网络上的例子中[例如.1],我只见过将每一帧保存为png然后在这些文件上运行mencoder或ffmpeg的方法.就我而言,保存每一帧是不切实际的.有没有办法获取从 matplotlib 生成的图并将其直接通过管道传输到 ffmpeg,而不生成中间文件?
..
如何使用 x264 C API 将 RBG 图像编码为 H264 帧?我已经创建了一系列 RBG 图像,现在如何将该序列转换为 H264 帧序列?特别是,如何将这个 RGB 图像序列编码为 H264 帧序列,该序列由单个初始 H264 关键帧和相关的 H264 帧组成? 解决方案 首先:检查 x264.h 文件,它或多或少包含每个函数和结构的参考.您可以在下载中找到的 x264.c 文件包
..
neon 指令 vadd.i16 q0,q0,q0 检查 gcc 支持失败测试.cint主(){__asm__("vadd.i16 q0, q0, q0");返回0;}arm-linux-androideabi-gcc test.c/tmp/ccfc8m0G.s:汇编器消息:/tmp/ccfc8m0G.s:24: 错误:错误指令 `vadd.i16 q0,q0,q0' 尝试使用标志 -mcpu=
..
我遇到一个奇怪的问题.我尝试安装x264.当运行sudo ./configure --enable-shared时,它给出了: 未找到汇编器最低版本是yasm-0.7.0如果您确实要在没有asm的情况下进行编译,请使用--disable-asm进行配置. 但是我已经安装了yasm-0.7.0,以证明我运行了yasm --version,它给出了: * yasm 0.7.0.206
..
我已经使用x264,x264_encoder_encode编码了一些帧,然后使用如下函数创建了AVPackets: bool PacketizeNals(uint8_t * a_pNalBuffer,int a_nNalBufferSize,AVPacket * a_pPacket){如果(!a_pPacket)返回false;a_pPacket-> data = a_pNalBuffer;a
..
在将x264视频(或单帧)写入内存缓冲区时遇到问题.在用于图像的opencv中,imencode和imdecode执行此任务.但是我想保存x264视频帧以降低内存使用量并在Internet上发送.我可以使用jpeg,但jpeg的大小大于x264视频帧,并且质量更差.我进行了搜索,但是找不到如何在缓冲区上写入视频帧. 这是在网络摄像头拍摄照片的示例代码 将numpy导入为np导入cv2上限=
..
我有一个批处理文件,可将视频文件从“源"文件夹编码为“目标"文件夹. 批处理文件的内容为: 对于("Source *.*")中的%% a 执行@echo DirectShowSource("%% a")>>"batchScript.avs"&&@echo MSharpen(10,120)>>"batchScript.avs"&&ffmpeg -i"batchScript.avs" -
..
最近,我正在阅读x264源代码.通常,我关注的是RC部分.我对参数 -bitrate 和 -vbv-maxrate 感到困惑.设置 bitrate 时,将在帧级别使用CBR模式.如果要启动MB级RC,请使用参数 bitrate , vbv-maxrate 和 vbv-bufsize .但是我不知道 bitrate 和 vbv-maxrate 之间的关系.同时设置 bitrate 和 vbv-max
..
我对h264 RTP数据包的时间戳感到困惑.我知道视频的挂钟频率为90KHz,这是我在SIP SDP中定义的.我的编码器的帧速率不完全是30 FPS,它是可变的.实时变化范围从15 FPS到30 FPS.因此,我不能使用任何固定的时间戳. 任何人都可以告诉我以下编码数据包的时间戳. 在0毫秒后,已编码的RTP时间戳= 0(让开始时间戳为0) 经过50毫秒的编码RTP时间戳=? 40毫秒
..
我一直在尝试让emgu将相同的网络摄像头视频保存到文件中 问题是opencv仅支持avi,而avi似乎不太适合像X264这样的格式. 我可以在C语言中使用Gstreamer来帮我吗? 如果我也可以选择文件格式和容器类型,那就太好了.如果可以使用schrodinger dirac这样的格式,那将是很好的. 我是GStreamer的新手,所以我不太确定自己是否在正确的轨道上.
..
我有一个项目,我们在其中使用gstreamer,x264等通过本地网络将视频流多播到多个接收器(连接到显示器的专用计算机).我们在视频源(相机)系统和显示器上都使用了gstreamer. 我们正在使用RTP,有效负载96和libx264对视频流(无音频)进行编码. 但是现在我需要量化(尽可能接近)帧获取和显示之间的延迟. 有人对使用现有软件有建议吗? 理想情况下,我希望能够
..
是否可以在h264中进行完全无损编码? “无损"是指,如果将其馈入一系列帧并对其进行编码,然后从编码的视频中提取所有帧,则将获得与输入中逐像素,逐帧完全相同的帧.真的有可能吗? 举个例子: 我生成一堆帧,然后将图像序列编码为未压缩的AVI(使用virtualdub之类的东西),然后应用无损h264(帮助文件声称设置--qp 0可以进行无损压缩,但是我不知道这是否意味着该过程的任何点都没有损失
..
我知道可以使用x264_encoder_reconfig()快速更改一些编码器参数.从此提交我可以推断出我们可以进行更改ratecontrol参数-但我找不到明确的可能更改的参数列表. 问题:可以即时更改x264编码器的哪些参数? 解决方案 您可以在libx264的源代码中查找可重新配置选项的列表
..
我不知道如何在DirectShow中使用x264.我安装了许多文件,认为它们假装没有使用x264编码器,我下载了videoLAN x264二进制文件,当我运行它时,它显示的控制台窗口是如此之快,此后什么也没发生 这些是我拥有的编码器 我正在Windows 8.1 x64上工作 请帮助解决这个问题,这只会使我发疯……我想使用x264,因为我安装的其他编码器无法正常工作,或者无法使用
..
我在使用opencv2.3.1 VideoWriter编写玩具示例视频时遇到问题,这是我的操作方法: writer = cv2.VideoWriter('test1.avi',cv.CV_FOURCC('P','I','M','1'),25,(640,480)) for i in range(1000): x = np.random.randint(10,size=(480,640)
..