nvidia相关内容
当我向带有两个GPU的节点提交带有选项--gres = gpu:1的SLURM作业时,如何获取为该作业分配的GPU的ID?是否有为此目的的环境变量?我使用的GPU都是nvidia GPU. 谢谢. 解决方案 您可以使用环境变量CUDA_VISIBLE_DEVICES获取GPU ID.此变量是分配给作业的GPU ID的逗号分隔列表.
..
我所做的就是按照github官方网站上的说明进行操作 !git clone https://github.com/NVIDIA/apex !cd apex !pip install -v --no-cache-dir ./ 它给了我错误: ERROR: Directory './' is not installable. Neither 'setup.py' nor 'pyproj
..
我已经在计算机(Ubuntu 16.04)上与tensorflow-gpu一起安装了CUDA和CUDNN. 使用的版本:CUDA 10.0,CUDNN 7.6,Python 3.6,Tensorflow 1.14 这是nvidia-smi的输出,显示了视频卡的配置. | NVIDIA-SMI 410.78 Driver Version: 410.78 CU
..
GeForce 6xx系列GPU是否使用RISC,CISC或VLIW样式的指令? 在一个来源中,位于 http://www. keyboardpoint.com/risc-cisc-t241234.html 有人说 "GPU可能更接近VLIW,而不是RISC或CISC". 在另一个来源中,位于 http://en.wikipedia. org/wiki/Very_long_instr
..
NVIDIA-SMI抛出此错误: NVIDIA-SMI失败,因为它无法与NVIDIA通信 司机.确保已安装最新的NVIDIA驱动程序, 正在运行 我清除了NVIDIA,并按照我的设备规格如下: 装有Tesla M40的服务器 在Ubuntu 16.04上运行 内核版本Linux 4.4.0-116-通用x86_64 驱动程序:nvidia-384 有人可以帮助解决错误
..
在Ubuntu上安装TensorFlow时,我想将GPU与CUDA一起使用. 但是我在官方教程中停了下来: > 这./configure到底在哪里?或者我的源代码树的根在哪里? 我的TensorFlow位于此处/usr/local/lib/python2.7/dist-packages/tensorflow.但是我仍然没有找到./configure. 编辑 我已经根据
..
对于NVIDIA GEFORCE 940mx GPU,设备查询显示每个MP具有3个多处理器和128个内核. 每个多处理器的线程数= 2048 因此,3 * 2048 = 6144.ie. GPU中共有6144个线程. 6144/1024 = 6,即总共6个街区.经线大小为32. 但是从此视频中 https://www.youtube.com/watch?v = kzXjRF
..
我想使用nvidia-smi来监视我的GPU,以进行我的机器学习/AI项目.但是,当我在cmd,git bash或powershell中运行nvidia-smi时,会得到以下结果: $ nvidia-smi Sun May 28 13:25:46 2017 +-------------------------------------------------------------------
..
我只有一个GPU(Titan X Pascal,12 GB VRAM),我想在同一GPU上并行训练多个模型. 我尝试将模型封装在单个python程序(称为model.py)中,并在model.py中包含代码以限制VRAM使用(基于 2017-09-10 13:27:43.714908: E tensorflow/stream_executor/cuda/cuda_dnn.cc:371] co
..
在当今大多数nVIDIA GPU上,共享内存(OpenCL术语为“本地内存")的大小仅为16 KiB. 我有一个应用程序,需要在其中创建一个具有10,000个整数的数组.因此我需要容纳10,000个整数= 10,000 * 4b = 40kb的内存量. 我该如何解决? 是否有GPU拥有超过16 KiB的共享内存? 解决方案 将共享内存视为显式管理的缓存.您将需要将数组存储在全局内
..
Nvidia GPU列表-GeForce 900系列-写道: 4单精度性能的计算方式是 2倍 着色器乘以基本核心时钟速度. 即例如对于GeForce GTX 970,我们可以计算性能: 1664内核* 1050 MHz * 2 = 3494 GFlops峰值(3494400 MFlops) 我们可以在“处理能力(峰值)GFLOPS-单精度"列中看到此值. 但是为什么我
..
我正在寻找一种减少长度相等的多个块的快速方法 排列成一个大向量. 我有N个子数组(连续元素),它们排列成一个大数组.每个子数组都有一个固定的大小:k. 所以整个数组的大小是:N * K 我正在做的是将内核调用N次.在每次计算子数组的约简时,如下所示: 我将遍历大向量中包含的所有子数组: for(i=0;i
..
我想在Google云平台上的linux机器上安装tensorflow-gpu.我没有使用深度学习vm gcp提供的内容.所以我在Linux实例上安装了anaconda,现在我想安装tensorflow.我已经安装了nvidia驱动程序和cuda.它们可以直接下载到云实例中.但是对于cuDNN,我必须将其下载到本地计算机,然后将其升级到云实例.有没有一种方法可以将该文件直接从nvidia网站下载到我
..
我正在尝试调试复杂的Makefile.您如何获得GNU make来打印它运行的所有命令?我无法在man页中找到答案(使用-d标志似乎无法打印出来). (这不是回答我的问题的必要信息,但是如果您想知道:我在编译基于NVIDIA CUDA库构建的项目时遇到了麻烦.我可以自己编译它,但是使用它们的Makefile结果会讨厌的编译器错误.我想使用它们提供的Makefile来简化打包,并包含它们已经链
..
我想使用ffmpeg来加速NVIDIA GPU的视频编码和解码. 从 NVIDIA网站: NVIDIA GPU包含一个或多个基于硬件的解码器和编码器(与CUDA内核分开),可为多种流行的编解码器提供全加速的基于硬件的视频解码和编码.卸载解码/编码后,图形引擎和CPU可以自由进行其他操作. 我的问题是:我可以使用CUDA内核对视频进行编码和解码吗? 解决方案 FFmpeg提
..
某些驱动程序在启动时加载时使用注册表中编写的参数进行配置。 我可以修改这些值,然后重新启动,但是我想知道是否可以强制重新加载驱动程序,从而使更改在不重新启动的情况下有效。 具体来说,我正在谈论视频驱动程序(nvidia)。 我在某处读到,通过pINvoke()[User32.ll] :: ChangeDisplaySettings()调用640x480x8bits分辨率(该分辨率太低
..
系统:我安装了Windows Server 2019操作系统,其中装有 NVIDIA Tesla T4 Tensor Core GPU 。 目标:计划从IP摄像机读取实时流视频并进一步逐帧处理。目标是利用NVIDIA DeepStream SDK,但问题是,它对于Windows操作系统不可用。因此,我在考虑docker系列,但由于对docker容器来说是一个新手,所以想知道我是否可以在Win
..
我正在尝试让nvidia-docker在我的centos7系统上运行: $ cat / etc / systemd /系统/docker.service.d/override.conf [服务] ExecStart = ExecStart = / usr / bin / dockerd-current --add-runtime docker-runc = / usr / li
..
我建立了一个docker映像:ubuntu20.04 + py38 +火炬,各种库(llvmlite,cuda,pyyaml等)+我的flask应用程序。该应用使用炬管,并且需要在容器内安装nvidia驱动程序。主机是win10 x64。 运行容器并用邮递员对其进行测试时,会出现错误: AssertionError: 您的系统上未找到NVIDIA驱动
..
我一直在努力获取一个依赖TensorFlow的应用程序,该应用程序可以与 nvidia-docker 一起用作Docker容器。我已经在 tensorflow / tensorflow:latest-gpu-py3 映像的顶部编译了我的应用程序。我使用以下命令运行Docker容器: sudo nvidia-docker run -d -p 9090:9090 -v / src / weigh
..