gpu相关内容

谷歌CoLab显示忙碌

我昨天在Google CoLab上运行了一个培训过程。现在,Google CoLab显示忙碌,即使在重新启动运行时并中断执行之后也是如此。我想停止目前的行刑。请帮帮忙! 推荐答案 从运行时菜单中选择“重新启动运行时”应该就足够了。 如果由于某种原因不起作用,您可以删除当前的后端,并通过选择命令‘重置所有运行时.’重新开始一个新的后端。从“运行时”菜单。 ..
发布时间:2022-03-15 14:18:51 其他开发

如何在Macbook PRO(M1)GPU上运行Pytorch?

我试图在我的Macbook PRO上使用PyTorch训练一个模型。它使用的是新一代苹果M1 CPU。但是,PyTorch无法识别我的GPU。 GPU available: False, used: False TPU available: False, using: 0 TPU cores IPU available: False, using: 0 IPUs 有人知道解决方案吗? ..
发布时间:2022-02-27 20:21:35 其他开发

如何使用纯Python激活Google CoLab GPU

我是Google CoLab新手。 我正尝试在那里进行深度学习。 我已经编写了一个类来创建和训练LSTM网络,只使用python,而不是任何特定的深度学习库,如TensorFlow、pytorch等。 我认为我使用的是GPU,因为我在CoLab中正确选择了运行时类型。 但是,在代码执行期间,我有时收到退出GPU模式的消息,因为我没有使用它。 因此,我的问题是:如何使用Go ..
发布时间:2022-02-27 20:19:40 Python

使用计算机特定的`.file`路径-CUDA.ptx文件是否可移植?

我正在研究cudaDecodeD3D9 sample以了解CUDA是如何工作的,在编译时它会从.cu文件生成一个.ptx文件。据我目前所知,这个.ptx文件是一个中间表示,它将针对任何特定的GPU进行实时编译。该示例使用类cudaModuleMgr通过cuModuleLoadDataEx加载此文件。 .ptx文件是文本格式,我可以看到它的顶部是我的机器上的一堆硬编码路径,包括我的用户文件夹, ..
发布时间:2022-02-27 20:17:56 C/C++开发

在python坞站映像上使用GPU

我使用的是python:3.7.4-slim-buster驳接图像,无法更改它。 我想知道如何在上面使用我的nVidia GPU。 我通常使用tensorflow/tensorflow:1.14.0-gpu-py3,使用简单的--runtime=nvidiaintdocker run命令一切正常,但现在我有这个限制。 我认为这种类型的镜像上没有快捷方式,所以我按照这个指南https:/ ..
发布时间:2022-02-27 20:16:51 Python

长记分板和短记分板(&r.t)分别是什么?(&x;Long&q;;和&q;Short&q;记分板W.r.t)MIO/L1TEX?

在最新的NVIDIA微体系结构中,出现了一个新的(?)taxonomyWARP停滞原因/WARP调度器状态。 此分类中的两个项目是: 短记分板-MIO队列操作的记分板依赖项。 长记分板-L1TEX操作的记分板依赖项。 我认为,其中使用";记分板";表示无序执行数据依赖关系跟踪(例如,请参阅here)。 我的问题: 形容词“短”或“长”描述什么?是一块 ..
发布时间:2022-02-27 20:14:55 其他开发

强制无头铬/铬使用实际的GPU,而不是Google SwiftShader

我正在尝试使用无头铬将html打印为pdf(使用puppeteer),一切正常,除非html包含较大的PNG图像(超过10.000x10.000px),呈现页面的整个过程需要非常长的时间(最多半小时,但如果使用非无头模式,则只需要大约10秒)。经过几天的调查和调整,我得出结论,这一定是页面合成过程有问题。 下面是无标题和非无标题模式下chrome://gpu页中的转储。 我注意到的唯一显著区别是 ..
发布时间:2022-02-27 20:13:24 其他开发

基于GPU原理的彩色像素计数

我有一张128 x 128像素的图像。 它被分解为8x8网格。 每个网格挡路包含16x16像素。 要求 我要计算我的图像包含多少黑色像素。 直通方式: 我可以通过逐行、逐列、遍历整个图像并检查像素是否为黑色来完成此操作。 GPU方式 .但我想知道如果使用图形处理器,我可以将图像分解成块/块,计算每个挡路中的所有像素,然后将结果求和。 例如: ..
发布时间:2022-02-27 20:11:56 移动开发

了解CUDA、Numba、Cupy等的扩展示例

几乎所有在线提供的Numba、CuPy等示例都是简单的数组添加,显示了从CPU单核/线程到GPU的加速比。而命令文档大多缺乏好的例子。此帖子旨在提供更全面的示例。 提供的初始代码here。这是经典元胞自动机的一个简单模型。最初,它甚至不使用numpy,只使用纯python和Pyglet模块进行可视化。 我的目标是将此代码扩展到特定问题(这将是非常大的问题),但首先我认为最好已经针对GP ..
发布时间:2022-02-27 20:10:47 Python

多线程会降低GPU性能

在我的Python应用程序中,我使用Detectron2对图像运行预测,并检测图像中所有人的关键点。 我希望(使用aiortc)对流式传输到我的应用程序LIVE的帧运行预测,但我发现预测时间要糟糕得多,因为它现在运行在新线程上(服务器占用了主线程)。 在线程上运行预测需要1.5到4秒,这是很长的时间。 在主线程(不含视频流部分)上运行预测时,我得到的预测时间小于1秒。 我的 ..
发布时间:2022-02-27 20:09:36 Python

使用GPU的Aradillo(+BLAS)

是否可以使用GPU运行Aradillos计算?有没有办法将GPU BLAS库(例如cuBLAS)与Aradillo一起使用?请注意,我对GPU编程完全陌生。 推荐答案 不,不是。 您不能将CPU的代码假定在GPU上运行,因为两者具有完全不同的内存模型、硬件、编程风格等pp。 ..
发布时间:2022-02-27 20:07:52 其他开发

英特尔_GPU_TOP输出的解释

谁能解释一下intel_gpu_top的输出?具体地说,什么是任务GAM、vs等(man page帮助不大。) 比特流繁忙是什么意思?它似乎总是为零. render busy: 45%: █████████ render space: 83/131072 bitstream ..
发布时间:2022-02-27 20:05:52 其他开发

目前是否可以在Java应用程序中启用Mac的集成图形芯片?

有没有办法让Java应用程序在Mac上使用集成的GPU,而不是独立的GPU? (我感兴趣的是如何发布不会将用户的Mac笔记本电脑推入离散模式的应用程序,而不是像gfxCardStatus那样为所有应用程序锁定我自己的笔记本电脑的集成模式。) 推荐答案 遗憾的是,使用Java7无法实现您想要的功能。 一些来自网络的资源: http://mail.openjdk.java ..
发布时间:2022-02-27 20:03:53 Java开发

Openacc+MPI Fortran程序入门

我有一个可以工作的串行代码和一个可以工作的并行单GPU代码,它们是通过openacc并行化的。现在,我正试图通过在多个GPU上运行,采用MPI+openacc范例来提高并行性。我用Fortran-90编写代码,并使用NVIDIA的HPC-SDK的nvfortran编译器进行编译。 我有几个初学者级别的问题: 如何设置编译器环境以开始编写MPI+openacc代码。除了NVIDIA的HP ..
发布时间:2022-02-27 19:58:56 其他开发

防止gmpy2和numba等(GPU)优化方法中的大整数溢出

我正在尝试使用numba在JIT修饰(优化)的例程中使用gmpy2检查大整数是否为完美平方。这里的示例仅用于说明目的(从理论角度来看,可以不同/更好地处理此类方程或椭圆曲线)。我的代码似乎溢出,因为它产生的解决方案并不是真正的解决方案: import numpy as np from numba import jit import gmpy2 from gmpy2 import mpz, x ..
发布时间:2022-02-27 19:55:24 Python

代码在Colab中运行时显示GPU使用情况

我有一个在Google Colab上运行的程序,我需要在它运行时监视GPU的使用情况。我知道通常您会在命令行中使用nvidia-smi来显示GPU使用情况,但是由于Colab在任何时候只允许一次运行一个单元,所以这不是一个选项。目前我正在使用GPUtil,通过GPUtil.getGPUs()[0].load和GPUtil.getGPUs()[0].memoryUsed监控gpu和vram的使用情况 ..
发布时间:2022-02-27 19:52:03 Python