mediarecorder相关内容
..
我搜索了很多主题,但没有直接的答案. 我有这个代码: 记录器 = new MediaRecorder();录音机.setAudioSource(MediaRecorder.AudioSource.MIC);recorder.setOutputFormat(MediaRecorder.OutputFormat.THREE_GPP);记录器.setOutputFile(mFileName);
..
我正在做一个项目,我们需要记录渲染的 OpenGL 表面.(例如,如果我们使用 GLsurfaceView,我们需要将表面与来自 MIC 的音频一起记录) 目前我通过将视频源设置为 VIDEO_SOURCE_GRALLOC_BUFFER 来使用 MediaRecorder API. 我正在使用以下 示例 作为基础代码 我想知道.... 这是正确的方法吗?.有没有更好的替代品
..
我需要设计一个应用程序.当通过相机录制视频时,显示并录制视频上方的 SystemTimeStamp.它可以与当前的 Android 框架一起使用吗?如果可以,我该怎么做?感谢大家阅读本文! 解决方案 按照以下步骤操作.1.捕获视频字节数组(每帧).2. 现在从字节数组创建位图.3. 使用下面的链接将文本覆盖在位图上.4. 保存这些位图以创建视频. 文本叠加位图.
..
这是我的问题:).如果我开始使用前置摄像头和 MediaRecorder 进行录制,然后切换到后置摄像头,是否可以使用相同的视频文件继续录制?另外,是否可以同时录制两个相机? 解决方案 你可以在 Nexus9 上使用 camera2 api 完成.(Nexus5不能同时打开2个摄像头) 创建 2 个 Gl 上下文(共享)和 2 个纹理缓冲区. 创建一个用于预览的 TextureVi
..
到目前为止,我还没有找到任何解释.基本上我有一个视频录制类,当我的三星 Galaxy S2 上的 setVideoSize() 设置为 720 x 480 时,它的效果非常好. 我希望它以尽可能高的分辨率录制,因此使用 CamcorderProfile.QUALITY_HIGH 我可以获得各种最高质量的录制属性并将它们设置在我的班级中.这适用于文件格式、视频帧速率、编码器和比特率,但是当我尝
..
是否可以“流式传输"MediaRecorder 的结果? 我能看到的唯一方法是接收 FileDescriptor 的 mediaRecorder.setOutputFile.所以我可以将结果写入文件或通过套接字发送到接收器. 我尝试了第二种解决方案,但结果视频已损坏,因为在流中不可“查找". 想法是使用android设备的摄像头将结果发布到Red5. 解决方案 是的,这是
..
Android MediaRecorder 允许将视频保存到文件(文件或套接字): setOutputFile(FileDescriptor fd);setOutputFile(字符串路径) 如何将视频数据保存到OutputStream?它将用于流式视频录制. 解决方案 使用 Android 特定的 LocalServerSocket 似乎是将视频数据作为流获取的唯一可能方法.简而言之
..
在使用 MediaRecorder 时,我们没有 API 级别低于 24 的暂停/恢复.所以有一种方法可以做到这一点: 发生暂停事件时,停止记录器并创建记录文件. 并在恢复时再次开始录制并创建另一个文件并继续这样做,直到用户按下停止键. 最后合并所有文件. 很多人在SO上问过这个问题,但无论如何都找不到解决这个问题的方法.人们谈论通过在暂停操作时停止录制并在恢复时重新启动来创建多个
..
VOICE_CALL, VOICE_DOWNLINK ,VOICE_UPLINK 不在android 4.0上工作,但在android 2.3(实际设备)上工作,我上传了一个虚拟项目来记录所有拨出电话,以便您可以自己查看 http://www.mediafire.com/?img6dg5y9ri5c7rrtcajwc5ycgpo2nf 您只需在 TService.javaaudioS
..
我正在尝试使用 ffmpeg.js 将 webM 文件转换为 mp4.我正在从画布(带有一些信息的覆盖层)录制视频并录制视频中的音频数据. stream = new MediaStream();var videoElem = document.getElementById('video');var videoStream = videoElem.captureStream();stream.ad
..
我已经看过这个问题了 - 连接两个或多个 webm 视频块的部分 并在这里尝试了示例代码 - https://developer.mozilla.org/en-US/docs/Web/API/MediaSource -- (没有修改)希望将 blob 转换为数组缓冲区并将它们附加到 MediaSource WebAPI 的源缓冲区中,但即使是示例代码也不是't 在我的 chrome 浏
..
我有两个不同的代码库有同样的问题. 第一个是直接从 developer.android.com 复制的代码:http://developer.android.com/guide/topics/media/camera.html#custom-camera 第二个是这个代码: http://android-er.blogspot.com.au/2011/10/simple-exer
..
我正在做一个我想参与的项目: 加载视频 js 并将其显示在画布上. 使用过滤器来改变画布(以及视频)的外观. 使用 MediaStream captureStream() 方法和 MediaRecorder 对象记录画布表面和原始视频的音频. 在 HTML 视频元素中同时播放画布和音频流. 通过调整此 WebRTC 演示代码,我已经能够在视频元素中显示画布记录:https://w
..
我正在用内置的 MediaRecorder 替换 RecordRTC,以便在 Chrome 中录制音频.录制的音频然后在带有音频 api 的程序中播放.我无法让 audio.duration 属性正常工作.它说 如果视频(音频)是流式传输的并且没有预定义的长度,则返回“Inf"(无限). 使用 RecordRTC,我不得不使用 ffmpeg_asm.js 将音频从 wav 转换为 og
..
我正在尝试使用 Web API Media Recorder 在浏览器中录制用户的声音. 在这个阶段,我对录制的音频所做的只是将其添加到音频元素的源中并播放. 当我停止记录器时,触发了'ondataavailable'事件,但数据大小为0,无法回放. 这是我的代码所在的位置.我正在使用反应.任何想法将不胜感激! handleRecording(流){const Recorded
..
在遵循与此类似的教程后,我正在使用 MediaRecorder 类使用相机录制视频 http://androidcookbook.com/Recipejsessionid=40151FCD26222877E151C3EEFB406EED?recipeId=1375&recipeFrom=ViewTOC 我希望在录音时能够将麦克风静音/取消静音.这怎么可能? 我在开始时设置音频源
..
我遇到了 MediaRecorder 类的问题.当我调用 start() 方法时,录音机开始录制(音频)但经过一些延迟(延迟非常明显 - 大约 1 秒).我在 Android 2.3 设备上看到过这种情况,特别是三星 Nexus S.这个问题不会出现在 Android 1.6 (G1) 或任何版本的 Android 模拟器上.您能否确认您是否看到此问题以及是否存在相同的解决方案?这是记录在案的错误
..
我正在尝试开发记录通话的应用程序. 当我录制输出声音时听起来很有线 - 电子声音而不是其他人的声音. 这是我的代码: public class MainActivity extends Activity 实现 OnClickListener {私人布尔录音;私人按钮 btn_REC;私人 MediaRecorder mrec;私人文件音频文件 = 空;private static f
..
我正在尝试不使用 Camera 实例而是使用 Surface 视频源来录制 MediaRecorder(是的,这是可能的,但事实证明它不是那么完美) - mediaRecorder.setVideoSource(MediaRecorder.VideoSource.SURFACE); 我只是写出了什么问题: 下一个代码仅适用于某些设备,并且在最近的设备重新启动后暂时适用于某些设备或根本不
..