nvidia相关内容
我想将我的技能扩展到 GPU 计算.我熟悉光线追踪和实时图形(OpenGL),但下一代图形和高性能计算似乎是在 GPU 计算或类似的东西. 我目前在我的家用电脑上使用 AMD HD 7870 显卡.我可以为此编写 CUDA 代码吗?(我的直觉是否定的,但由于 Nvidia 发布了编译器二进制文件,我可能是错的). 第二个更普遍的问题是,我从哪里开始使用 GPU 计算?我敢肯定这是一个经
..
我已经安装了 IntelliJ IDEA (13.1.1 #IC-135.480) 和 JDK 1.8.0 (x64) 并且我用 GUI 表单设计器生成了一些 GUI. 然后我运行了代码并意识到有些不对劲. 这是我的 GUI 的屏幕截图: 字体的渲染似乎不太好.此外,当我将鼠标移到 Button 上时,它的文本会丢失. 所以我安装了 JDK 1.7.0_40 (x64),重
..
我正在使用在 Windows 7 上运行的开源触觉和 3D 图形库 Chai3D.我已经重写了该库以使用 Nvidia nvision 进行立体 3D.我使用 OpenGL 和 GLUT,并使用 glutInitDisplayMode(GLUT_RGB | GLUT_DEPTH | GLUT_DOUBLE | GLUT_STEREO) 来初始化显示模式.它在 Quadro 卡上运行良好,但在 GT
..
我正在学习 Arduino 微控制器课程,我正在做我的最后一个项目:一个根据外壳温度工作的自动计算机冷却系统. 我无法使用以下来源获得我的 NVIDIA GPU 核心温度:此 MSDN 链接 或 此 NVIDIA 链接.如何获取 GPU 的温度值? 我对 C# 的了解是基本的,我无法从那些手册或 MSDN 中的代码示例中得出结论. 解决方案 经过长时间的搜索,我找到了获取数据的
..
我已经决定我的学士论文将是关于通用 GPU 计算以及哪些问题比其他问题更适合于此.我还试图找出当前 GPU 架构之间是否存在任何可能影响这一点的重大差异. 我目前正在寻找一些直接从制造商那里获取有关当前 GPU 架构的科学论文和/或信息,但我似乎找不到任何看起来足够详细的信息.因此,我希望有人能够建议一些论文或至少为我指明正确的方向. 谢谢 解决方案 阅读有关 OpenCL 和
..
问题:当我运行以下命令时 python -c "import tensorflow as tf;tf.test.is_gpu_available();打印('版本:' + tf.__version__)"; 错误: RuntimeError:GPU:0 上的 CUDA 运行时隐式初始化失败.状态:所有支持 CUDA 的设备都忙或不可用 详情: WARNING:tensorflow:F
..
我正在使用谷歌云提供的预构建深度学习 VM 实例,并连接了 Nvidia tesla K80 GPU.我选择自动安装 Tensorflow 2.5 和 CUDA 11.0.当我启动实例时,一切正常 - 我可以运行: 将 tensorflow 导入为 tftf.config.list_physical_devices() 我的函数返回 CPU、加速 CPU 和 GPU.同样,如果我运行 tf.t
..
我的 docker 中有两个 NVIDIA 设备.这是两个模型同时运行时的 GPU 使用信息. +-----------------------------------------------------------------------------+|进程:GPU 内存 ||GPU PID 类型进程名称用法||=========================================
..
我们正在尝试将我们的 Tobii 眼动仪连接到我们的 Ubuntu OS 16.04.6 LTS Nvidia Jetson TX2 模块.但是,当我们想要 pip install tobii_research 时,我们不断收到错误消息,指出找不到与之匹配的发行版.有没有人在这方面取得过任何成功?我们正在使用 python 3.5 的虚拟环境,我们正在尝试安装 Psychopy,但它一直说它在/t
..
我一直在尝试使用 Tensorflow GPU,但显然,Tersorflow 无法识别我的 GPU. 当我跑步时: from tensorflow.python.client import device_lib打印(device_lib.list_local_devices()) 作为输出,只显示我的 CPU.我已经检查了所有版本的所有内容,它们似乎兼容.我有带有 CUDA Toolki
..
我有一个由 tensorflow-gpu 运行的模型,我的设备是 nvidia.我想列出每一秒的 GPU 使用率,以便我可以测量平均/最大 GPU 使用率.我可以手动打开两个终端,一个是运行模型,另一个是通过nvidia-smi -l 1测量.当然,这不是一个好方法.我也尝试使用 Thread 来做到这一点,在这里. import subprocess as sp导入操作系统从线程导入线程类 M
..
我尝试仅更改一个屏幕而不是所有屏幕的伽玛值. 我使用此代码来帮助我 但是这个SetDeviceGammaRamp(GetDC(IntPtr.Zero), ref s_ramp);适用于所有设备. [EDIT2] 我看到一件奇怪的事情:SetDeviceGammaRamp 与 Nvidia 面板控制器(我试图改变我的 SetDeviceGammaRamp 值,就像我在 Nvidia
..
我在 Intel Core i7-8700 CPU 上运行 Windows 10,配备 16 GB RAM、1 TB HDD 和专用 NVIDIA GeForce GTX 1070 显卡. 我计划启动由我的 Windows 10 PC 托管的 3 个 Ubuntu 实例.Ubuntu 将运行分布式 Tensorflow (tensorflow-gpu) 代码,该代码将使用 GPU 来训练神经
..
安装 nvidia-396 后,我在登录计算机时遇到问题.弹出错误信息后返回登录界面.当我删除 nvidia* 并重新启动 lightdm 时,它工作正常. 你能帮我解决这个问题吗. 谢谢. 解决方案 我能够通过使用 bumblebee 完全删除 nvidia 驱动程序来修复. sudo apt purge nvidia* bumblebee 并重新安装 sudo a
..
我已经在 Tensorflow 2.0 中训练了一个模型,并且正在尝试改进在转向生产时的预测时间(在具有 GPU 支持的服务器上).在 Tensorflow 1.x 中,我能够通过使用冻结图来获得预测加速,但这在 Tensorflow 2 中已被弃用.从阅读 Nvidia 对 TensorRT 的描述来看,他们建议使用 TensorRT 与单独使用 Tensorflow 相比,可以将推理速度提高
..
关于如何在 Windows 平台上运行时选择 nVidia 离散适配器有很多问题和答案.最简单的方法是像这样导出一个 NvOptimusEnablement 变量: extern "C" _declspec(dllexport) DWORD NvOptimusEnablement = 0x00000001; 我有相反的要求.无论 NVIDIA 控制面板中的首选图形处理器是什么,我都需要在运行时
..
我已经为此苦苦挣扎了一段时间并阅读了我找到的所有帖子.我在 Ubuntu 16.04 上有 gtx 1080 gpu.我的要求是 tensorflow 1.13.1.在我的 conda 环境中,我有 _libgcc_mutex 0.1 main_tflow_select 2.1.0 GPUabsl-py 0.7.1 py36_0 conda-forgeastor 0.7.1 py_0 conda
..
我已经使用 atomicMax() 在 CUDA 内核中找到最大值: __global__ void global_max(float* values, float* gl_max){int i=threadIdx.x + blockDim.x * blockIdx.x;浮动 val=values[i];atomicMax(gl_max, val);} 它抛出以下错误: 错误:没有重载函
..
我在 Ubuntu 14.04 上安装 GTX980 驱动程序时遇到问题.我需要升级到 CUDA7.5 和最新的驱动程序.我同时使用了 .run 安装程序和 deb.安装程序并在安装前进行清除. 这是日志: 使用内置流用户界面->在线检测到8个CPU;将并发级别设置为 8.->命令行选项接受的许可证.->安装 NVIDIA 驱动程序版本 352.39.->您的系统上似乎已经安装了驱动程序(
..
有没有人用 NVIDIA GPU 在 WSL2 上成功安装过 Tensorflow-GPU?我在 WSL2 上安装了 Ubuntu 18.04,但正在努力安装 NVIDIA 驱动程序.当我迷路时,任何帮助将不胜感激. 解决方案 由于以下文章,我可以确认我能够在不需要 WSL2 上的 Docker 的情况下完成这项工作: https://qiita.com/Navier/items/c
..