video-processing相关内容
过去,我使用 Managed Direct X 和 DirectShow.Net 将视频播放到简单网格上的纹理.然后,我使用相同的技术将多个视频源组合到一个纹理中,使用通过纹理公开的各种功能将这些流混合在一起.这是 2 年前的一个非常有趣的实验,非常适合在 Managed Dirext X 仍在开发和支持(不再支持)时的目的,与 DirectShow.Net 类似 - 它似乎没有更新自 2007
..
我可以在 MPEG2 TS 文件中发现每个视频(I、P、B)和音频帧的字节长度,而不是逐字节读取帧内容(例如从 NAL 单元标头)? 解决方案 在 MPEG-TS 文件中,在 PES 层,有一个名为“PES 长度"的字段,它包括所有数据,但没有 PES 头.要准确提取此信息,您必须了解每帧是否有 PES 标头.唉,在大多数视频中,这个字段经常留0,唯一真正计算每帧字节数的方法是在ES级别的
..
我正在尝试创建一个程序来检测视频中的人脸.在我接受“面子"之前,必须通过一些要求.在满足所有要求后,我想拍摄包含该“脸部"的框架并裁剪它们以使脸部成为焦点区域.该程序将遍历每一帧并执行此操作,然后获取新视频并将其制作为视频文件. 我从未处理过视频文件或图像文件,所以这对我来说是全新的.我目前正在编写用于确定面部是否被接受以及面部定位的所有算法.我还有一个视频处理器,我是为该项目提供的.视频处
..
我想知道是否有人对 Python 和视频处理有任何经验.本质上,我想知道是否有任何库可以让我在视频中进行场景检测?如果没有,是否有任何可以让我将视频分成一系列帧并让我弄乱像素的方法? 谢谢! 解决方案 OpenCV 有 Python 绑定;我认为它没有构建任何场景边界算法/函数,但您绝对可以使用它来编写自己的.
..
我正在尝试使用 PHP 开发 API,它将接收来自用户的文本作为输入.我需要更改 aepx 文件中的文本.在我的研究中,我发现 标签和 分别包含文本值及其对应的十六进制值. 我能够解析和替换 aepx 中 标签的文本.我还可以更改 的 bdata 属性的十六进制值. 但是在我进行了所有更改之后,它没有渲染(尝试使用 aerender 命令运行).此外,After Effect Appl
..
我正在 Python 中测试新的 Tensorflow 对象检测 API,并且我成功地使用 docker 在 Windows 上安装了它.然而,我的训练模型(Faster RCNN resnet101 COCO)做出预测最多需要 15 秒(虽然准确度非常好),可能是因为我只使用 Tensorflow CPU. 我的三个问题是: 考虑到延迟,问题出在哪里?我听说 Faster RCNN
..
我想将我的输入视频转换为一组帧.我已经阅读了帖子Python - 提取和保存视频帧. 但是我想要一个函数,我可以在其中插入视频作为参数,而不是视频文件的位置. 在下面的 VideoCapture 函数中,它接收视频文件的位置. 导入 cv2def vidtoframes(videoFile):vidcap = cv2.VideoCapture(videoFile)成功,图像 = vi
..
out = cv2.VideoWriter(output_file, codec, fps, (width,height))而 video.isOpened():has_frame, image = video.read()如果 has_frame:image_in = cv2.cvtColor(图像,cv2.COLOR_BGR2RGB)image_in = tf.expand_dims(imag
..
我想使用 OpenCV 的estimateRigidTransform 函数,但它抛出了一个错误. AttributeError Traceback(最近一次调用最后)在3031 #查找变换矩阵---> 32 m = cv2.estimateRigidTransform(prev_pts, curr_pts, fullAffine=False) #仅适用于 OpenCV-3 或更低版本333
..
在我的应用程序中,我正在渲染从用户照片中检索到的图像生成的视频.我已经用AVAssetwriterInput设置了一个AVAssetwriter并具有一个AVAssetWriterInputPixelBufferAdaptor.我可以将我从用户库中检索到的ALAsset对象转换为CVPixelBuffers并将它们添加到Video中,然后将其另存为mp4.将所有图像添加到视频是在后台线程上完成的,
..
我有一些代码可以生成一系列灰度图像.然后,我可以将图像单独保存为一个循环,并在应用了色图的情况下保存它们.即 file = sprintf('image_%04d.png',x);imwrite(image1,jet,file,'png'); 所以我将图像从另一端取出,它们具有正确的颜色映射,即colormap(jet). 但是,当我在下一个程序中尝试将这些图像拼凑在一起以形成简短的
..
目标 :检测运动并将运动周期仅保存在具有起始时间名称的文件中. 现在,我遇到了有关如何将视频保存到具有视频开始时间的文件的问题. 我测试过的 : 我对程序进行了部分测试.似乎除保存部分外,其他每个部分都工作良好. 运行状态 :没有错误.但是在保存文件夹中,没有视频.如果我改用静态保存路径,则视频将成功保存,但下一个视频将覆盖该视频.我的代码如下: import cv2将
..
我想在我的网站上放一些视频.它们是从FlipShare相机获取的.MP4文件提供的. 现在我尝试将它们转换为WMV(成功,但是当以
..
我正在尝试使用Pydrive上传具有共享链接的视频,但是当我尝试使用链接查看视频时,出现一条错误消息:无法处理该视频. 我尝试使用小尺寸视频(7MB),并使用不同的格式,例如MP4,WEBM和MOV.但是我得到了同样的错误.我想知道您是否能帮助我.我真的很感激. 这是我的代码: folderName ='视频'folder = drive.ListFile({'q':" title
..
我正在尝试在视频上覆盖图片,但显示FFmpeg日志 File://storage/emulated/0/whatsappCamera/wc1529921459336.jpg:协议不存在找到 我也查看了下面的线程,但对我没有帮助我被卡住了,请帮助我! Android FFmpeg报告“未找到文件协议" 这是命令 String [] commandImage = new
..
因此,我正在用C#编写一个应用程序,以将视频升级到特定分辨率.它使用ffmpeg来做到这一点.选择视频文件后,单击1080p会创建目录文件夹,但实际上没有将放大的视频写入其中. 我认为我必须有一个字符串格式问题: private void HD_Click(对象发送者,EventArgs e){如果(textBox1.Text == null){MessageBox.Show(“您尚未选
..
我有一个完整的自动化工具链,该工具链首先将视频块连接起来,并根据它调整用户事件.第一步使用3rd party软件,我在那里无法解决问题.在此过程的稍后部分,我将从视频中提取音频.有时它们之间有损坏的音频块.FFMPEG在提取时会忽略损坏的部分.因此,我得到了更短的音频(链接的事件取决于组织A/V的确切长度).如果只会在最后发生,这不会是一个大问题,我知道如何在此进行填充,但是在随机的情况下,我在完
..
FFMPEG几个月前推出了带有新过滤器"overlay_cuda"的FFMPEG新版本,该过滤器与"overlay"过滤器的功能相同.但要使用Nvidia卡进行应用. 我在FFMPEG网站上找到了该过滤器的说明,但没有使用它的示例.我发现的唯一示例来自开发人员提交,但是将视频或照片放在另一个视频上. 在使用普通的重叠式滤镜之前,我使用宽度为两倍的nullsrc图像进行此操作,但现在我不
..
因此,我试图将1分29秒的视频切成30秒的片段.预期输出为30sec,30sec,29sec.结果是35sec,29sec,23sec. 这是我的代码- ArrayListcommandList = new ArrayList();commandList.add(“-ss");commandList.add("00:00:00");commandList.add(“
..
我正在尝试使用以下命令每秒从RTSP流中捕获单个帧ffmpeg -i rtsp://XXX -q:v 1 -vf fps = fps = 1 -strftime 1 ZZZZ \%H_%M_%S.jpg 但是某些帧被涂抹,像素化和损坏-如果提高rtsp分辨率,此效果会大大增加 (如果分辨率为例如减少到720P,大多数帧都可以) 我不得不说,在VLC或FFPLAY中播放相同的rtsp流是
..