video-streaming相关内容
从 FFmpeg 流式传输 RTSP 需要哪些步骤? 流式传输 UDP 不是问题,但由于我想流式传输到可以本机读取 RTSP 流的移动设备,我找不到任何可以说明确切需要什么的设置.我需要像 LIVE555 这样的 RTSP 流媒体服务器还是只能使用 FFmpeg? 我的命令: ffmpeg -i space.mp4 -vcodec libx264 -tune zerolatency
..
我想流式传输 mp4,为此我阅读了 ffserver. 所以我搜索并阅读了 ffserver 文档,但仍然无法流式传输一个简单的文件. 为此,我做了这些: 1-A win 8 和最后安装的 VLC. 2-带有最后一个 ffmpeg 包的 Ubuntu 13. 3-A ffserver.conf 文件保存到/etc/并从 http://ffmpeg.org/sample.html 复制(我
..
嘿,我正在尝试使用 FFMPEG 录制 IP 摄像机流.但它给了我输入/输出错误.这是命令 ffmpeg -i http://admin:@ip:81/livestream.cgi E:\Video\my.h264 我的相机是 H264 编码的.现在请帮助如何消除此错误.任何帮助将不胜感激. 解决方案 我正在使用它保存我的内容并且它工作正常.检查输入是否正确或在接收流时尝试放置视频的细
..
我正在尝试编写一个应用程序,它将捕获屏幕的视频流并将其发送到远程客户端.我发现在 Windows 上捕获屏幕的最佳方法是使用 DXGI 桌面复制 API(自 Windows 8 起可用).Microsoft 提供了一个简洁的示例,可将重复的帧流式传输到屏幕.现在,我一直在想什么是对这些帧进行编码并通过网络发送的最简单但仍然相对较快的方法. 框架来自 AcquireNextFrame 带有一个
..
我真的坚持这个问题,因为我还没有在互联网上看到足够的关于 iOS 视频编码的信息,但是我们可以观察到很多成功处理视频流问题的应用程序(skype、qik、justin.电视等) 我将开发一个应用程序,该应用程序应该将从相机获得并以 h.263(h.264 或 MPEG-4 正在决定)编码的视频帧发送到网络服务器.为此,我需要一些视频编码库.显然,ffmpeg 可以处理该任务,但它是在 LGPL
..
根据这个什么技术最适合将 iPhone 视频摄像头数据实时流式传输到计算机? 可以从 iphone 摄像头获取压缩数据,但正如我在 AVFoundation 参考资料中阅读的那样,您只能获得未压缩的数据.> 所以问题是: 1) 如何从 iPhone 的摄像头获取压缩的帧和音频? 2) 使用 ffmpeg 的 API 对未压缩的帧进行编码对于实时流传输是否足够快? 任何帮助将不胜
..
我正在使用以下命令为 html5 流创建一个碎片化的 mp4: -i rtsp://172.20.28.52:554/h264 -vcodec copy -an -f mp4 -reset_timestamps 1 -movflags empty_moov+default_base_moof+frag_keyframe -loglevel quiet - "-i rtsp://172.20.2
..
我需要在我的本地主机上安装 ffmpeg PHP 扩展,以便我可以测试我的一些脚本,但我在弄清楚如何做到这一点时遇到了麻烦. 我有 WampServer 2.0 和 PHP 5.2.9-2,我的操作系统是 Windows XP.请有人给我一步一步的说明. 我在这里找到了一些 Windows 版本:http://sourceforge.net/projects/ffmpeg-php/fi
..
在 iPhone OS 3 中,Apple 引入了 HTTP Live Streaming 应允许从互联网实时流式传输视频.我目前正在操作一个网络摄像头,它输入我的服务器,然后由 ffmpeg 转换为 flv 流,并使用 ffserver 流式传输回来.有谁知道如何设置 iPhone 可以使用 ffmpeg 和 ffserver 使用的视频流?我应该能够即时重新编码为任何格式. 解决方案
..
我正在尝试使用 Live555 & 通过 RTP 流将桌面(NV12 格式的 DirectX 表面)流式传输为 H264 视频.Windows 媒体基金会在 Windows10 上的硬件编码器,并期望它由 ffplay (ffmpeg 4.2) 呈现.但只能得到如下所示的绿屏, 我提到了 MFWebCamToRTP mediafoundation-sample &使用硬件 MFT 编码 Di
..
我正在尝试使用媒体源扩展 API 将 H.264 内容直播到 HTML5. 以下方法效果很好: ffmpeg -i rtsp://10.50.1.29/media/video1 -vcodec copy -f mp4 -reset_timestamps 1 -movflags frag_keyframe+empty_moov -loglevel quiet out.mp4 然后:
..
是否可以从命令行运行 ffmpeg,它将“moov atom"元数据放在 MP4 文件的开头,或者运行 qt-faststart 作为 ffmpeg 中的后处理操作,因此生成的文件是流-可以通过互联网吗? 我当然可以将它作为一个单独的命令运行,但更希望它是某种东西 作为 ffmpeg 中的一个选项,或 作为转换后的一部分,通过 ffmpeg 转换视频文件时的命令行选项 编辑 1
..
使用 JavaScript 流式传输实时视频的最快方式是什么?基于 TCP 的 WebSockets 是否是一种足够快的协议来流式传输视频,例如 30fps? 解决方案 基于 TCP 的 WebSockets 是否是一种足够快的协议来流式传输视频,例如 30fps? 是的..看看这个项目.Websockets 可以轻松处理高清视频流.但是,您应该选择自适应流.我在这里解释如何你可
..
我想在 ASP.NET MVC 中开发一个应用程序.这是详细的场景 - 如果“实时"视频聊天,应用程序应提供便利.不应该有任何延迟(接受的延迟低于 4 秒,但由于是面试,因此超过 4 秒是完全不可接受的. 应用程序应同时录制视频并将流上传到 Azure Blob,以便日后进行审核. 我面临的问题 我尝试使用 Silverlight,但它可以捕获视频,但不会以 mp4 或 wmv
..
我正在使用此代码:
..
我们必须使用 Android Camera 捕捉实时视频,并将它们发送到服务器,然后其他用户才能通过浏览器或其他方式读取它们. 我在 SO 上进行了 Google 搜索和搜索,还有一些关于视频流应用的示例,例如: 1 Android-eye:https://github.com/Teaonly/android-eye 2 Spydroid-ipcamera:https://cod
..
我在从 avi 转码到 mp4(x264) 时遇到了 fps 问题.最终问题出在 PTS 和 DTS 值上,因此在 av_interleaved_write_frame 函数之前添加了第 12-15 行: 1.AVFormatContext* outContainer = NULL;2. avformat_alloc_output_context2(&outContainer, NULL, "m
..
我有一个程序可以从网络摄像头捕获视频,用 ffmpeg 编码,编码数据包,然后写入缓冲区.在接收端,使用 ffmpeg 从缓冲区解码中读取并播放. 现在我将发送者和接收者合并到一个程序中进行测试.它适用于 AV_CODEC_ID_MPEG1VIDEO,但是当我将 ffmpeg 编解码器更改为 AV_CODEC_ID_H264 时,在解码过程中,它显示错误: 整个程序在这里仅供参考,我做
..
我想知道我们如何防止其他人下载我网站中的视频.我的网站可以选择上传视频(flv 或 mp4 格式.管理员将上传),用户支付一定金额后即可在线(使用 flowplayer)观看课程视频. 但我观察到的是,用户可以使用 Freecorder 等工具下载这些视频.我不希望这种情况发生,因为视频的访问权限受到限制,并且只能在特定时间段内使用(直到用户的会员资格到期). 那么如何防止用户下载我网
..
我已经通过 websocket 编写了一些代码流视频,所以 sourcebuffer 可以在 Chrome 和 Edge 中使用. 但是,当我在 Firefox 中运行它时,视频从不播放,只显示旋转轮动画.当我检查 统计信息时,它读取 HAVE_METADATA 作为就绪状态和 NETWORK_LOADING 作为网络状态. 代码如下:
..