web-mediarecorder相关内容
我对TypeScrip和整个JavaScript环境还是个新手。我有一个小项目要做,它需要创建一个带有类型脚本的浏览器应用程序(我还没有任何代码)。 我需要从浏览器麦克风录制原始PCM音频,将其记录下来,然后通过浏览器扬声器播放相同的PCM音频。 我研究过使用MediaRecorder进行录制,并使用普通的HTMLAudioElement进行回放,但我不确定它们是否支持原始音频。我也有
..
我主要对音频MIME类型感兴趣,但如果有人能提供Safari的MediaRecorder支持的所有MIME类型的列表,那将是有帮助的。 我找不到关于这件事的任何文件。到目前为止,我已经运行了MediaRecorder.isTypeSupport(...)Chrome和Firefox支持的所有音频MIME类型,但似乎都不支持。 推荐答案 目前似乎只支持audio/mp4和video
..
我通过 canvas.getDataURL() 从 canvas 获取帧. 但是,现在我有一组 png 图像,但我想要一个视频文件. 我该怎么做? var canvas = document.getElementById("mycanvaselementforvideocapturing");var pngimages = [];...setInterval(function(){p
..
当使用 CanvasCaptureMediaStream 和 MediaRecorder 时,有没有办法在每一帧上获取一个事件? 我需要的与 requestAnimationFrame() 没什么不同,但我需要它用于 CanvasCaptureMediaStream(和/或 MediaRecorder)而不是窗口.MediaRecorder 可能以与窗口不同的帧速率运行(可能以不规则可分的速
..
在哪里可以找到 Firefox 或 Chrome 支持的所有 MIME 类型的列表?到目前为止,我看到的所有示例都仅使用 video/webm. 解决方案 我还没有看到任何针对 Firefox 的综合列表,但我已经设法找到了一些东西(通过 在 MediaRecorder API 上发布,来自 Google 的网络更新部分)链接到 这个测试集 这似乎说明了一些事情. 本质上,以下是(在
..
我正在使用 MediaRecorder API 在网络应用程序中录制视频.该应用程序可以选择在相机和屏幕之间切换.我正在使用 Canvas 来增强流录制.该逻辑涉及从相机捕获流并将其重定向到视频元素.然后将该视频呈现在画布上,并将来自画布的流传递给 MediaRecorder.我注意到的是,只要用户不切换/最小化 chrome 窗口,从屏幕切换到视频(反之亦然)就可以正常工作.画布渲染使用 req
..
情况 我需要执行以下操作: 从 获取视频并在 内播放 将画布中的流记录为 Blob 就是这样.第一部分还可以. 对于第二部分,我设法录制了一个 Blob.问题是 Blob 是空的. 视图 代码 //初始化console.log(MediaRecorder.isTypeSupported('video/webm'))//trueconst canvas
..
当 MediaRecorder 处于“正在录制"状态时,我正在尝试将 mediaTrack 添加到 mediaStream 添加新曲目的代码如下: activeStream.addTrack(newAudioTrack) 此后事件 (onstop) 被触发.我怎样才能避免这种情况? 解决方案 您可以使用 AudioContext 来创建固定的 MediaStream,您可以将其传
..
我已经构建了一些代码,可以让 MediaRecorder API 捕获音频和视频,然后使用 ondataavailable 函数通过 websockets 将相应的 webm 文件 blob 发送到服务器.然后服务器通过 websockets 将这些 blob 发送到客户端,客户端使用媒体源扩展 API 将视频放在一个缓冲区中. 这很有效,但如果我想在中途开始一个流,我不能只发送最新的 bl
..
当我在支持 MP4 和 MediaRecorder(Linux 上的 Firefox)的浏览器中使用 JS MediaRecorder 以 MP4 格式录制网络摄像头时,网络摄像头启动但不录制. 当 MediaRecorder 的 mimeType 设置为 video/webm 时,录制工作正常,但是当我将 mimeType 设置为 video/mp4 时,就会出现问题. 我用以下代码
..
new MediaRecorder(stream[, options]); 我想记录用户的摄像头和音频 我需要在录音时将 song.mp3 混合到音轨中. 并导出视频文件以通过链接下载. 但是MediaRecorder的第一个参数流可以修改吗? 但是当我使用 recoder.stop() 提示错误:无法在“MediaRecorder"上执行“stop":Medi
..
我一直试图在Chrome上以OGG格式录制音频,然后将其发送回服务器,但是它始终以视频/ogg格式获取音频.这是我所拥有的: 捕获音频: let chunks = [];让record = null;让mediaRecorder =新的MediaRecorder(stream);mediaRecorder.start();mediaRecorder.onstop = function()
..
我正在制作一个小型交互式动画/游戏(使用PixiJS在画布上),并希望为用户提供一个选项来保存渲染的动画.经过研究, MediaRecorder 似乎是我所使用的API应该用于录制和渲染视频.但是,MediaRecorder构造函数仅允许将一个流用作源. 如何合并其他流(音频效果),以便录制的视频文件中也有声音? 解决方案 使用视频流的轨道和音频流的轨道创建新的(组合的)媒体流.
..
我正在使用Selenium测试我的网站,并且能够使用-auto-select-desktop-capture-source ="tab_name" 打开chrome,并在启用屏幕共享时选择标签.现在,我希望选项卡中播放的音频与视频一起出现在我的视频流中.手动进行操作时,有一个复选框可以启用音频共享,但是是否有一些可以从Selenium中启用它的功能? 这里是一个小提琴: https://js
..
据我了解,Firefox和Chrome支持WebM/VP9已有一段时间了. 但是,在我的机器上,MediaRecorder.isTypeSupported('video/webm; codecs = vp9')在Firefox中返回 false ,但在Chrome中返回 true . 软件:Firefox 81.0,Chrome 85,MacOS 10.15.MacBook Pro i
..
我正在使用MediaRecorder API在Web应用程序中录制视频.该应用程序具有在相机和屏幕之间切换的选项.我正在使用Canvas来增加流录制.逻辑涉及从摄像机捕获流并将其重定向到视频元素.然后将该视频呈现在画布上,并将画布中的流传递到MediaRecorder. 我注意到的是,只要用户不切换/最小化Chrome窗口,从屏幕切换到视频(反之亦然)就可以正常工作.画布渲染使用requestAn
..
当我尝试从webm中提取aac时,持续时间会不一致. aac少了十分钟.不同的webm视频,差距不一样. webm视频是由chrome extension chrome.tabCapture.capture 生成的 代码: chrome.tabCapture.capture({ video: true, audio: true, videoConstraints: {
..
我正在尝试将实时MediaStream(最终是从摄像机)从对等方A投射到对等方B,并且我希望对等方B实时接收实时流,然后以增加的延迟对其进行重放.不幸的是,由于无法跳入直播并继续播放,因为它会跳到直播时刻. 所以我发现我可以使用MediaRecorder + SourceBuffer重新观看直播.记录流并将缓冲区附加到MSE(SourceBuffer),然后在5秒钟后播放. 这在本地设备(流
..
WebM是否为音频编解码器支持PCM? 我不认为这样做,但是我在 WebM文档页面上看到支持带有以下注释的BitDepth字段: BitDepth-每个样本的位数,主要用于PCM. 如果WebM不支持PCM,Chrome是否可以实施?如果可以,与MediaRecorder一起使用的适当的内容类型是什么?这些都返回false: MediaRecorder.isTypeSupp
..
我最近一直在尝试在浏览器中生成视频,因此一直在使用两种方法: 使用 whammy js库,可将webp帧组合成webm视频。 此处有更多详细信息。 使用 MediaRecorder 和 canvas.captureStream 。 此处有更多详细信息。 whammy方法效果很好,但仅在Chrome中受支持,因为它是当前唯一支持webp编码( canvas.toDataURL(“ im
..