hardware-acceleration相关内容
与此相关的是,是否有一种方法可以迫使Java FX在无法使用时对其进行硬件加速和轰炸? 解决方案 刚刚发现: 您可以使用-Dprism.verbose=true运行,它将打印其使用的图形管线. "sw"或"j2d"用于软件,"d3d"或"es2"用于硬件加速.
..
HTML5具有元素,该元素可从服务器下载视频,对其进行解码并进行渲染.他们经常(如果不是总是)使用硬件加速解码(如果可用). 是否可以仅使用解码功能?原因是我使用的是自定义流协议,因此在客户端,我已经编码了需要解码和渲染的视频流. 不幸的是,视频解码器的纯JavaScript实现不适用,因为它们无法提供足够的性能.我只对HVEC或h.264编解码器感兴趣. 解决方
..
我们公司的一台服务器具有32个CPU,并且我们要处理1000多个非常大的文件.我不确定同时读取32个文件是否是个好主意,以便所有内核也可以同时执行独立的计算.谁能简要解释一下硬盘的工作原理?如果我同时读取32个文件,会降低读取速度吗?谢谢! 解决方案 硬盘传统上是机械数据存储设备.我假设服务器使用的是机械硬盘,而不是没有活动部件的较新的SSD类型硬盘.我还假设具有如此大的数据和处理能力,正
..
我正在尝试使用C ++和Win API为Windows平台编写屏幕保护程序.要渲染图形,我使用的是GDI +,但是问题在于渲染带有少量动画(淡入和淡出)的png非常“占用CPU资源". 所以我想知道是否有办法为GDI + API启用GPU加速?如果不可能,那么我可以从支持GPU加速的非托管代码(除了OpenGL或DirectX)中使用某些东西吗? 解决方案 不是. GDI主要涉及内存
..
我正在构建一个使用ffmpeg通过互联网流式传输网络摄像头内容的程序.我想知道是否可以在树莓派pi模型3的流部分使用GPU.如果是,我如何在ffmpeg上实现它? 解决方案 您将需要一些其他配置选项: --enable-mmal –通过MMAL启用Broadcom多媒体抽象层(Raspberry Pi).用于H.264,VC-1,MPEG-2,MPEG-4的硬件解码.作为依赖项,您需
..
我有下一期。在使用版本API 28更新android studio中的最高7.2.0 android模拟器的HAXM之后,不要启动。我无法运行模拟器。我在Intel处理器i7上使用笔记本电脑。虚拟化已启动。在更新之前它起作用。更新后,即使打开了软件加速功能,我也可以运行仿真器。如果是硬件-无法运行。如果使用x86_64代替x86,我会在模拟器上出现黑屏,并且logcat中出现错误: 06-
..
仅使用crc32总和的2个高/低字节会使其比crc16弱吗? 背景: 我目前正在实现无线协议。 我每个都有64字节的块,并且根据 数据长度与CRC长度 我最多需要crc16。 使用crc16而不是crc32可以释放带宽以用于前向纠错(64字节是FEC中的一个块)。 但是,我的硬件功耗很低,但是对CRC32具有硬件支持。 所以我的想法是使用硬件crc32引擎,只丢弃2个结果字
..
我正在使用Media Foundation的Source Reader编写硬件加速的h264解码器,但遇到了问题。我遵循了本教程并通过Windows SDK Media Foundation示例为自己提供支持。 关闭硬件加速后,我的应用似乎可以正常工作,但是它没有提供我需要的性能。当我通过将 IMFDXGIDeviceManager 传递给用于创建读取器的 IMFAttributes 来打开
..
这些天,我需要在画布上绘制许多图像。画布尺寸为800x600px,我可以在其上绘制许多256x256px(有些较小)的图像,这些小图像将在画布上组成一个完整的图像。我有两种方法可以实现此目的。 首先,如果我使用canvas 2D上下文,即 context = canvas.getContext('2d'),那么我可以使用 context.drawimage()方法将每个图像放置在画布的正确位
..
我正在调查System.Numerics.Vectors 名称空间中的“> Vector . .0-preview1-26216-02"rel =" nofollow noreferrer“> 4.5.0-preview1-26216-02 . MSDN文档说: Vector是一个不变的结构,代表指定数字类型的单个向量. Vector实例的数量是固定的,但其上限取决于CPU
..
因此,我试图了解如何在持续进行动画处理的自定义View中正确使用硬件加速(如果可用).这是我的onDraw(): 的基本前提 canvas.drawColor(mBackgroundColor); for (Layer layer : mLayers) { canvas.save(); canvas.translate(layer.x, layer.y); //Dr
..
我的应用程序使用可缩放的画布,以便可以以米而不是像素为单位指定路径点.当我缩放画布时,然后在启用硬件加速的情况下使用path.lineTo()画一条线,这条线是模糊且偏移的.关闭硬件加速或canvas.drawLine()不会发生这种情况. 以下是重现该问题的代码: package com.example.canvasproblem; import android.app.Activ
..
我使用硬件加速从DXVA2视频解码器中获得了IDirect3DSurface9. 我尝试通过其句柄在“我的窗口"上渲染此硬件IDirect3DSurface9.以下是我的摘要代码. 首先,我打电话给dxva2_init(AVCodecContext *s, HWND hwnd); hwnd是窗口的句柄 int dxva2_init(AVCodecContext *s, HWND
..
我整天都在研究,并且还没有走很远.我在Windows 7上,使用DirectX11.(我的最终输出是将视频帧显示到DX11纹理上) 我想解码一些非常大的H.264视频文件,而CPU(使用libav)不能将其剪切. 我已经研究了使用DXVA2的libav的hwaccel功能,但是当我需要创建只能使用D3D9接口创建的IDirectXVideoDecoder时遇到了障碍. (我没有使用DX11)
..
我正在使用Xamarin开发适用于android的应用程序.我正在使用Visual Studio安装程序的Xamarin软件包随附的Visual Studio 2017和Android SDK模拟器. 模拟器非常慢.我按照本文中的说明启用了Hyper-V加速: https://docs.microsoft.com/zh-cn/xamarin/android/get-started/insta
..
我编写了使用-webkit-transform,-webkit-perspective和其他类似方法的CSS.我的设计在可以使用硬件加速但实际上无法使用的机器上看起来有些屈膝.如何检查硬件加速可用性并提供后备CSS? 旁注:运行chrome://gpu-internals/手动检查可用性. 解决方案 可悲的是,答案似乎是“你还不能(还)". Modernizr项目在其“无法检测
..
我正在使用 Facebook的Rebound库复制其聊天头实现中看到的弹性动画。问题是,大多数情况下动画会停顿。一些图片可以更好地说明这一点。这是黄油状的聊天头像动画: 这是我的尝试(请注意,白色 View 的动画如何跳过几乎所有帧): 一段时间后会正常工作: 下面是我当前正在使用的代码(整个项目为放在Github上(如果要快速设置)。我猜测这与在我的视图中未正确启用硬件加速有关
..
这是对我的问题的一种后续措施: iPhone是否支持硬件加速的AES加密?。经过进一步分析和黑客攻击后,我确定iOS CommonCrypto仅支持AES-CBC模式(密码块链接)的硬件加速,而不支持AES-CTR(计数器)或AES-ECB(电子密码本)模式的硬件加速。尽管这与开源代码不同: http:/ /opensource.apple.com/source/CommonCrypto/Comm
..
我希望能够检测到手机向地面加速的情况(可能意味着在这里也必须使用重力传感器)。 我已经在Android文档中阅读了很多有关此主题的内容,关于高通和低通滤波器以及其他文章,现在我所拥有的是一个代码示例去除重力后在X,Y和Z轴上的加速度: if(event.sensor.getType()== Sensor.TYPE_ACCELEROMETER){ 最终浮点alpha =(浮点)0.
..
我在ReleativeLayout里面有一个TextView,我在运行时在其中设置了一个大文本. 问题出在我的ReleativeLayout背景上,背景是带边框的圆形.它没有设置背景,并且在Logcat中说: 12-12 16:26:56.602: W/OpenGLRenderer(7400): Path too large to be rendered into a texture 我
..