h.264相关内容
我正在使用android v21设备将数据流式传输到javafx应用程序.它的工作正常,但我有大约2秒钟的延迟. 截至目前,基本交通方式是这样的 android webrtc/自定义实现16毫秒 android packetizer(udp)6毫秒 udp传输假定为
..
TL; DR::我想从AVI/MP4文件中读取原始的h264流,甚至损坏/不完整. 关于h264的几乎每个文档都告诉我它由NAL数据包组成.好的.几乎到处都告诉我,数据包应该以00 00 01或00 00 00 01之类的签名开头.例如, https://stackoverflow.com/a/18638298/8167678 ,https://stackoverflow.com/a/176
..
这是问题所在:用ffmpeg解码H264流时,我可以获得SPS和PPS的原始数据,但是我不知道如何将它们填充到AVCodecContext的extradata字段中.没有extradata,我将无法正确解码帧.每次调用avcodec_decodec_video2时,返回值为正,但got_picture标志始终为zero. 我正在处理的流看起来像这样: [0x67]...[0x68]..
..
媒体基金会H264编码器MFT 文档未提及编码器的CLSID。其他编码器类ID和H264解码器MFT类ID在以下位置定义 \程序文件(x86)\Microsoft SDK \7.1\Include\wmcodecdsp.h或 \Program Files(x86)\Windows套件\8.x\Include\wmcodecdsp.h 我在枚举设备时看到此编解码器,并且可以
..
我正在尝试使用Live555& amp; RTP流将桌面(NV12格式的DirectX表面)作为H264视频通过RTP流传输。 Windows Media Foundation在Windows10上的硬件编码器,希望它可以由ffplay(ffmpeg 4.2)呈现。但是只能得到如下所示的绿屏, 我引用了 MFWebCamToRTP媒体基础样本& 使用硬件MFT编码DirectX表面,以实现l
..
我搜索后几乎没有发现任何东西,所以我非常感谢我的问题。 我正在编写一个使用libav读取的DirectShow源过滤器并从youtube的FLV文件发送下游h264数据包。但是我找不到合适的libav结构的字段来正确实现过滤器的GetMediType()和FillBuffer()。一些libav字段为空。结果h264解码器在尝试处理接收到的数据时崩溃。 我在哪里错了?在使用libav或
..
我必须获取流视频(来自rtsp服务器)宽度和高度。 第三方服务器在RTSP DESCRIBE REQUEST上提供以下信息: 一台RTSP服务器为我提供宽度高度 服务器响应: RTSP / 1.0 200 OK .... 内容类型:application / sdp 内容-长度:376 a = x尺寸:1280,1024 //获取宽度高度 ...
..
我知道cef3的较旧版本(例如2623)可以通过修改chromium\src\cef\cef.gypi文件来启用H264支持。 但在诸如3071或3029的最新版本中,cef3删除了cef.gypi文件。 我已经用谷歌搜索过,但是我发现仍然是通过修改cef.gypi文件。 因为此方法仅对旧版本有效。我还有其他方法可以使较新版本启用H264支持吗? 非常感谢! 解决方案 实际上是支持
..
我想将h.264流从服务器传输到视频文件,但是当我使用assetwrite.finishwrite时,XCode会报告 Video /var/mobile/Applications/DE4196F1-BB77-4B7D-8C20-7A5D6223C64D/Documents/test.mov cannot be saved to the saved photos album: Error D
..
当前,我正在将硬件解码Obj-C代码转换为Swift版本. (Xcode 8,Swift 3). 我不知道如何设置字典以在屏幕上设置输出选项,而且我也不知道如何使用它. 以下代码在Obj-C项目中正常工作: // set some values of the sample buffer's attachments CFArrayRef attachments = CMSample
..
我整天都在研究,并且还没有走很远.我在Windows 7上,使用DirectX11.(我的最终输出是将视频帧显示到DX11纹理上) 我想解码一些非常大的H.264视频文件,而CPU(使用libav)不能将其剪切. 我已经研究了使用DXVA2的libav的hwaccel功能,但是当我需要创建只能使用D3D9接口创建的IDirectXVideoDecoder时遇到了障碍. (我没有使用DX11)
..
我想对Desktop Duplication API框架进行编码,以便在使用Media Foundation对其进行编码后通过网络发送.当我调用IMFTransform :: ProcessInput时,我陷入了E_NOTIMPL错误,这让我有点茫然. 这些是我到目前为止所做的步骤,我在详细介绍它们,因为花了我几天的时间才能从网上稀缺的分散信息中收集所有信息,因此,如果解决了该问题,将有希望
..
我正在使用AVSampleBufferDisplayLayer解码和显示从服务器流式传输的H.264视频.当我的应用进入后台,然后返回到前台时,解码过程搞砸了,AVSampleBufferDisplayLayer失败了.我看到的错误是: H.264 decoding layer has failed: Error Domain=AVFoundationErrorDomain Code=-
..
iOS VTCompressionSession的属性为kVTCompressionPropertyKey_MaxH264SliceBytes.但是,我无法设置VTCompressionSession的kVTCompressionPropertyKey_MaxH264SliceBytes属性.它会返回-12900错误代码(kVTPropertyNotSupportedErr),并且VTCompre
..
我已经从多媒体设备捕获了视频帧.捕获的流有两个分片数据包.为了测试用例,我需要将其转换为一个切片数据包的传输流. 有什么建议/指针吗? 解决方案 在我所知道的所有h264编码器上,默认情况下都是一片.使用"ffmpeg -i file.ts我们的-codec libx264 outfile.ts"
..
我试图通过检索ICodecAPI接口来调整通过ActivateObject()创建的H.264编码器的属性. 尽管我没有收到任何错误,但我的设置并未考虑在内. 代码在Windows 10下运行. 我复制用于创建IMFSinkWriter的代码,并在下面检索ICodecAPI.错误处理未显示,但没有错误产生. 我已经阅读过如果不可能,将采取什么方式?我需要在H.264中编码并流式传
..
使用H264Decoder,我想将已解码的YUV420数据作为Java字节数组获取.我搜索了所有内容,但没有找到合适的示例. ByteBuffer buf = ByteBuffer.wrap(h264EncodedByteArray); H264Decoder decoder = new H264Decoder(); // assume that sps and pps are set on
..
我正在尝试从相机解码H264原始协议,但是使用Jcodec H264Decoder时遇到了一些问题.我从相机收到一个包含信息的整数数组.下面是数据示例: array:00 00 01 FD 00 00 14 69 00 00 00 00 01 61 E4 80 6F D3 5B 76 97 DF 04 3A EF 54 97 0E D9 F5 ...更多 我正在使用的代码是: B
..
尝试通过以下链流传输视频:本地实例存储(AWS)上的h264/mp4文件-> ffmpeg-> rtp->同一实例上的Janus-> WebRTC播放(Chrome/mac).即使没有资源似乎过载(所涉及的任何系统上的CPU/内存/网络带宽),所产生的视频也不稳定.我还使用了Coturn TURN服务器,它也没有完全加载并且带宽充足. 尝试了切换编解码器,除了vp8不能工作之外,vp8仍在工
..
我需要将h264流从附件b格式转换为AVCC格式. 我试图将h264 annex-b转换为AVCC: 我从附件流中提取了SPS和PPS并创建了Extra数据. 然后,我在流中查找0x00 0x00 0x00 0x01(应该是每个Nal的开头),然后继续寻找另一个0x00 0x00 0x00 0x01(将是Nal的结尾),然后减去以获取Nal长度,然后将第一个0x00 0x00 0x00 0x
..