gpu相关内容
我刚刚在一个全新的conda环境中安装了tf,并且尝试安装了两个版本的cudnn,不确定是否相关。GPU不工作,因为我收到此错误: tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libcudart.so.11.0'; dlerror: libcudar
..
我需要帮助才能知道我的块和网格的大小。 我正在构建一个python应用程序来执行基于Scipy的公制计算:欧几里德距离、曼哈顿、皮尔逊、余弦、加入其他。 项目为PycudaDistances。 它似乎可以很好地处理小数组。当我执行更详尽的测试时,不幸的是它不起作用。我下载了电影镜头集(http://www.grouplens.org/node/73)。 使用Movielens10
..
我正在尝试运行一个简单的pytorch示例代码。使用CPU可以很好地工作。但在使用GPU时,我收到以下错误信息: Traceback (most recent call last): File "", line 1, in File "/usr/local/lib/python3.6/dist-packages/torch/nn/modules/mod
..
从零使用开始: >>> import gc >>> import GPUtil >>> import torch >>> GPUtil.showUtilization() | ID | GPU | MEM | ------------------ | 0 | 0% | 0% | | 1 | 0% | 0% | | 2 | 0% | 0% | | 3 | 0% | 0%
..
我们正在考虑将应用程序从专用数字信号处理芯片移植到通用 x86 硬件上.该应用程序进行了大量的傅立叶变换,从简短的研究来看,FFT 似乎非常适合在 GPU 而不是 CPU 上进行计算.例如,此页面有一些使用 Core 2 Quad 和 GF 8800 GTX 的基准,显示使用 GPU 时计算时间减少了 10 倍: http://www.cv.nrao.edu/~pdemores/gpu/
..
我尝试使用 GPU 创建 google_container_node_pool.我尝试了机器类型 nvidia-tesla-p4 和 a2-highgpu-1g,每个都返回不同的错误: projects/my-project-id/zones/us-central1-a/machineTypes/nvidia-tesla-p4 或 错误:创建 NodePool 时出错:googl
..
我正在尝试使用 android avd 的新功能“GPU 仿真 - 是的"需要在模拟器上使用 GLES2.0.但是,当我打开它时,模拟器的屏幕变为空白.这是我从命令行调用它时的输出. 解决方案 对于那些有同样问题并拥有带有 optimus 的 nvidia 卡的人...只需安装 Ironhide! sudo apt-add-repository ppa:mj-casalogic/iron
..
我正在使用 opencl 开发一个应用程序,其基本目标是在 GPU 平台上实现数据挖掘算法.我想使用 Hadoop 分布式文件系统并想在多个节点上执行应用程序.我正在使用 MapReduce 框架,我将基本算法分为两部分,即“Map"和“Reduce". 我以前从未在 hadoop 中工作过,所以我有一些问题: 我是否使用 Java 编写应用程序只是为了使用 Hadoop 和 Mape
..
我需要在带有 CentOS 的 AWS EC2 GPU 实例上执行一些离屏渲染程序.然而,虽然我发现 Ubuntu 很容易设置,但我不能让 CentOS 正常工作. 目标是在 EC2 GPU 实例(无屏幕或 X 客户端)上运行一些基本实用程序/测试工具.在接下来的文章中,我将描述如何设置 Ubuntu 以及 CentOS/Amazon Linux AMI 如何失败. Ubuntu
..
我的设备是运行 Jelly Bean 4.2 的 Nexus 4.我正在尝试记录屏幕并将其发送出去.互联网上的大多数代码通过读取/dev/graphics/fb0 来完成上限.它在某些设备和旧系统中运行良好.但是当我在我的设备上尝试它时,它失败了.它只给我黑屏和原始数据中的所有“0".我已经运行“adb root"来获得 root 权限,尝试了“chmod 777 fb0"、“cat fb0 >/
..
我为 GPU 安装了 Tensorflow:pip install tensorflow-gpu但是当我为 Keras pip install keras-gpu 尝试同样的方法时,它给我一个错误:找不到满足要求的版本. 解决方案 没有没有任何keras-gpu包[UPDATE:现在有,见下面的其他答案];Keras 是一些后端的封装,包括 Tensorflow,这些后端可能有不同的版本,
..
我的电脑安装了以下软件:Anaconda (3)、TensorFlow (GPU) 和 Keras.有两个 Anaconda 虚拟环境 - 一个使用 TensorFlow 用于 Python 2.7,一个用于 3.5,两个 GPU 版本,安装到 TF 指令.(我之前在一个单独的环境中安装了一个 CPU 版本的 TensorFlow,但我已经删除了它.) 当我运行以下命令时: source
..
在Windows上使用Anaconda安装了一个tensorflow-gpu版本,如何查看它的CUDA和CUDNN版本?谢谢. 解决方案 您也可以从 anaconda 命令行运行 conda list: conda 列表 cudnn# C:\Anaconda2 环境中的包:## 名称版本构建通道cudnn 6.0 0
..
我是深度学习的新手,过去 2 天我一直在尝试在我的电脑上安装 tensorflow-gpu 版本,但徒劳无功.我避免安装 CUDA 和 cuDNN 驱动程序,因为由于许多兼容性问题,一些在线论坛不推荐它.由于我之前已经在使用 python 的 conda 发行版,所以我选择了 conda install -c anaconda tensorflow-gpu,在他们的官方网站上写着:https://
..
L2 缓存如何在具有 Kepler 架构的 GPU 中根据引用的局部性工作?例如,如果一个线程访问全局内存中的一个地址,假设该地址的值不在二级缓存中,那么该值是如何被缓存的?是暂时的吗?或者该地址的其他附近值是否也被带到 L2 缓存(空间)? 下图来自 NVIDIA 白皮书. 解决方案 在计算能力 2.0 及更高版本中引入了统一二级缓存,并继续在 Kepler 架构上得到支持.使用的
..
我们有一些安装了 cuda 库的夜间构建机器,但它们确实没有安装支持 cuda 的 GPU.这些机器能够构建支持 cuda 的程序,但不能运行这些程序. 在我们的自动化夜间构建过程中,我们的 cmake 脚本使用 cmake 命令 find_package(CUDA) 判断是否安装了cuda软件.这会在安装了 cuda 软件的平台上设置 cmake 变量 CUDA_FOUND.这
..
我目前正在 GPU 上编写矩阵乘法并想调试我的代码,但由于我不能在设备函数中使用 printf,我可以做些什么来查看该函数内部发生了什么.这是我当前的功能: __global__ void MatrixMulKernel(Matrix Ad, Matrix Bd, Matrix Xd){int tx = threadIdx.x;int ty = threadIdx.y;int bx = bloc
..
我正在GPU上写一个图像恢复算法,详情在 Cuda:最小二乘求解,速度很差p> 求解线性系统的QR分解方法 斧头=b 工作如下 min||Ax-b||--->||QRx-b||--->||(Q^T)QRx-(Q^T)b||--->||Rx-(Q^T)b|| 其中 R 是上三角矩阵.由此产生的上三角线性系统很容易求解. 我想使用 CULA 工具来实现这个方法.CULA 例程 G
..
我们有一个安装了两个 Nvidia Quadro FX 5800 卡的工作站.运行 deviceQuery CUDA 示例显示每个多处理器 (SM) 的最大线程数为 1024,而每个块的最大线程数为 512. 鉴于每个 SM 一次只能执行一个块,为什么最大线程/处理器是最大线程/块的两倍?我们如何利用每个 SM 的其他 512 个线程? 设备 1:“Quadro FX 5800"CUDA
..
我是 CUDA 编程的新手,我正在解决一个需要在一台机器上安装多个 GPU 的问题.我知道为了更好地进行图形编程,需要通过 SLI 组合多个 GPU.但是,对于 CUDA 编程,我是否还需要通过 SLI 组合 GPU? 解决方案 不,一般来说,如果您打算将 GPU 用于计算而不是纯图形应用程序,则通常不希望使用 SLI.您将能够从 CUDA 程序中将两个 GPU 作为独立设备访问.请注意,
..