video-processing相关内容
我遇到了媒体复用器的问题。为什么我的应用程序崩溃了?解决方案是什么? java.lang.IllegalStateException: Failed to stop the muxer at android.media.MediaMuxer.nativeStop(Native Method) at android.media.MediaMuxer.stop(MediaMuxe
..
我正在处理从YUV420到RGB的转换,但图像颜色不能产生良好的效果。最初我自己的文件是10位的。最初,我从8位文件开始。 我使用下面的代码读取YUV420图像并转换为RGB。因为我有YUV420.YUV图像文件,但该代码是用于视频的,因此,我只读取了1帧。然后我得到的YUV是全尺寸的Y,但U和V是维基百科上描述的一半大小。然后我将图像大小调整到图像的完整大小,并应用YUV到RGB的转换。但
..
我有一个用例,我需要将716x1280MP4视频缩小到358x640(原始视频的一半)。我使用的命令是 ffmpeg -i ./input.mp4 -vf "scale=640:640:force_original_aspect_ratio=decrease,pad=ceil(iw/2)*2:ceil(ih/2)*2" ./output.mp4 在10个样本视频中,有2个受到了颜色的影响
..
我正在尝试将视频放在背景图像上,但生成的输出视频没有音频。有没有办法让音频保持原样? def ConvertVideo(source,background,start,end,dest): stream = ffmpeg.input(source) strea1 = ffmpeg.input(background) duration = end - start
..
示例代码: from moviepy.editor import * clip = VideoFileClip('video.mp4') clip.write_videofile('video2.mp4', fps=30) 在显示以下消息后,表示正在构建和编写视频 Moviepy - Building video video2.mp4. Moviepy - Writing vide
..
我想创建一个功能,可以在某一帧中裁剪视频并将其保存在我的磁盘上 (OpenCV、Moviepy或类似的东西) 我用参数指定我的函数作为框架的尺寸以及源名称和目标名称(位置) def vid_crop(src,dest,l,t,r,b): # something # goes # here left = 1 #any number (pixels) top = 2
..
我这里的问题是,当我使用OpenCV将视频提取到帧中时,有时我得到的帧会翻转,这在我的机器(Windows)和VM(Ubuntu)上都发生了,但我测试的一些视频,帧没有翻转。因此,我想知道我的代码中应该更改/添加什么因素或哪些内容,以便在不翻转的情况下修复提取 def extract_frame(video,folder): global fps os.mkdir('./gre
..
因此,我学会了如何通过读取GL_FORWARE中的字节缓冲区来截取LWJGL显示的屏幕截图: public static void takeScreenShot(){ GL11.glReadBuffer(GL11.GL_FRONT); int width = Display.getDisplayMode().getWidth(); int height = Displ
..
我正在尝试使用tfds.Feature.Video对TensorFlow 2中的视频进行解码,以便使用以下代码输出“tf.uint8类型的tf.张量器和形状[Num_Frames,Height,Width,Channels]”: import numpy as np import pandas as pd import tensorflow as tf import tensorflow_d
..
在我的 Windows 8 应用商店应用程序中,我倾向于执行实时视频流处理(例如人脸检测). 技术 1 在我之前的 Windows 7 应用程序中,我能够使用以下技术 (C# 中的相机人脸检测使用 Emgu CV(.NET 中的 OpenCV)和 WPF)执行实时视频处理.该技术是,具有固定周期的计时器回调,以主动从相机对象查询图像缓冲区. void timer_Tick(objec
..
我有一个问题,我必须从监控摄像头录制的视频中读取录制时间. 时间显示在视频的左上角.下面是显示时间的区域的屏幕抓取链接.此外,数字颜色(白色/黑色)在视频播放期间不断变化. http://i55.tinypic.com/2j5gca8.png 请指导我解决这个问题的方向.我是一名 Java 程序员,所以更喜欢通过 Java 的方法. 编辑:感谢 unhillbilly 的评
..
如何使用 H.264 压缩和 OpenCV 中的 VideoWriter 类编写视频?我基本上想从网络摄像头获取视频并在按下字符后保存.使用 MPEG4 Part 2 压缩时,输出视频文件很大. 解决方案 你当然可以使用VideoWriter类,但是你需要使用代表 H264 标准的正确 FourCC 代码.FourCC 代表 Four Character Code,它是媒体文件中使用的视频
..
有人可以指导我学习教程或指导我如何跟踪以 6 DOF 移动的物体的运动.我打算使用移动玩具车的视频流.我想计算玩具车的位移和旋转角度.我遇到了一些研究论文,但找不到任何适合这项工作的库. 有没有办法使用 OpenCV 或 Matlab 或其他一些免费提供的软件来做到这一点? 谢谢 解决方案 跟踪是一个经典的计算机视觉问题,在计算机科学中仍然致力于研究;通过查看接受论文列表,您可
..
我正在寻找在 iPhone 上解码本地 mpeg-4 视频帧的最快方法.我只是对每 10 帧中像素的亮度值感兴趣.我不需要在任何地方渲染视频. 我尝试过 ffmpeg、AVAssetReader、ImageAssetGenerator、OpenCV 和 MPMoviePlayer,但它们都太慢了.我能得到的最快速度是 ~2x(一分钟扫描 2 分钟的视频).我想要接近 10 倍的东西.
..
我已经进行了 吨 的研究,但由于多种原因,我还没有找到可行的解决方案,我将在下面概述. 问题 在我的 iOS 应用中,我希望三个视图无限期地显示设备相机的延迟实时预览. 例如,视图 1 将显示相机视图,延迟 5 秒,视图 2 将显示相同的相机视图,延迟 20 秒,视图 3 将显示相同的相机视图,延迟 30 秒. 这将用于记录自己进行某种活动,例如锻炼,然后在几秒钟后观察自己
..
我正在寻找一种有效的方法来执行以下操作: 使用多个源视频(长度大致相同),我需要生成一个输出视频,该视频由所有在其自己区域中运行的原始源组成(例如一堆 PIP 有几种不同的尺寸).所以,最终的结果是所有的原件都是并排运行的,每个都在自己的区域/盒子里. 源和输出必须是 flv 并且我使用的平台是 Windows(在 Windows 7 64 位上开发,部署到 Windows Serve
..
我有一项异常艰巨的任务要执行.本以为很容易,结果一切努力都没有结果. 我正在将上传到 php 脚本的各种格式(.avi、.mpg、.wmv、.mov 等)的视频转换为单一的 .flv 格式.转换效果很好,但我遇到的问题是视频的分辨率. 这是我当前正在运行的命令(使用 PHP 变量): ffmpeg -i $original -ab 96k -b 700k -ar 44100 -s
..
我有一些视频,我想给它们添加水印但问题是每个视频的“水印大小"都不同(在某些视频中水印较小,而在某些视频中水印较大 - 我认为是因为视频输入大小不同) 这是我的 ffmpeg 命令(只是链接不同) ffmpeg -i "http://VIDEO-LINK" -i "/var/www/logo/logo.png" -filter_complex 'overlay=17:17' -vcodec
..
有谁知道如何在 FFmpeg 中实现按秒(或毫秒)查找.我目前有一个使用 av_read_frame() 遍历视频帧的循环,我想以秒为单位确定该帧应该在什么时间.如果它到达某个点,那么我想在视频中寻找稍后的点.顺便说一下,它不是视频播放器,只是处理帧.我听说我应该能够从数据包中获取 dts 或 pts,但它总是返回 0. 解决方案 注意:这是过时的,它应该仍然有效,但现在有 av_seek
..
我需要将时间码刻录到视频中,我想知道 ffmpeg 是否能够做到这一点? 解决方案 简短的回答,没有. 答案很长,是的,但并非没有使用单独的库来创建带有渲染时间码的帧,透明填充帧的其余部分,然后使用 FFmpeg 将帧覆盖在现有视频上.我一头雾水,不知道该怎么做,但我敢肯定,如果您有创意,就可以想出来. 编辑:我一直在研究这个问题,因为它对我来说是一个有趣的问题/项目.我通过编
..