nvidia相关内容

使用CUDA支持ubuntu 18.04安装dlib

我在Ubuntu 18.04(Linux mint 19)上安装了CUDA 9.0和CUDNN 7.1。 Tensorflow-gpu在GPU(GTX 1080ti)上可以正常工作。 现在,我正在尝试构建具有CUDA支持的dlib: sudo python3 setup.py install-是USE_AVX_INSTRUCTIONS-是DLIB_USE_CUDA-清理 ..
发布时间:2020-10-24 01:08:43 Python

dlib不使用CUDA

我使用pip安装了dlib。我的图形卡支持CUDA,但是在运行dlib时,它没有使用GPU。 我正在使用ubuntu 18.04 Python 3.6.5(默认,2018年4月1日,05:46:30)linux 上的 [GCC 7.3.0]>>> import dlib >> dlib.DLIB_USE_CUDA 错误 我还安装了NVidia Cuda Com ..
发布时间:2020-10-24 01:04:05 Python

在DirectX 11中跨适配器传输纹理

我正在使用Desktop Duplication API从一个GPU捕获桌面,并且需要将纹理(位于GPU内存中)复制到另一个GPU。为此,我有一个捕获线程,该线程获取桌面映像,然后使用ID3D11DeviceContext :: CopyResource将其复制到暂存资源(在同一设备上创建)。然后,我将暂存资源与Read映射,将目标动态资源(在另一台设备上创建的)映射到WriteDiscard并复 ..
发布时间:2020-10-22 03:55:41 其他开发

nVidia SLI技巧

我正在优化Directx图形应用程序,以利用nVidia的SLI技术。我目前正在研究“最佳做法”网页中提到的某些技术,但想知道您对此有何建议/经验? 谢谢! 解决方案 这并不是您的真正答案问题,更多关于SLI的评论。 我的理解是,当您立即购买两张卡时,SLI只是提高性能的一种经济有效的手段,而实际上很少有人这样做。许多人购买了SLI主板和卡,认为这将为他们提供更好的升级途径,但 ..
发布时间:2020-10-22 03:52:05 其他开发

笔记本电脑双视频卡-如何以编程方式检测和/或选择使用哪个

我们正在开发使用DirectX在Windows 7和更高版本的计算机上进行3D渲染的软件,以及64位C#/。NET代码。 我们观察到,我们正在测试的许多较新的戴尔笔记本电脑都具有双显卡。它们具有Intel HD 4600集成显卡,并且还具有更快的NVIDIA Quadro卡。 默认情况下,开箱即用的是Intel图形由DirectX应用程序。这样做是为了保留电池寿命。但是性能明显要比NV ..
发布时间:2020-10-22 01:49:19 C#/.NET

Tensorflow可以与Theano一起安装吗?

我正在尝试在Nvidia Tesla K80上与Theano一起安装tensorflow。我正在使用Cuda 7.5,并按照此处给出的说明进行操作 Theano本身可以很好地工作,但是一旦按照说明从源代码安装tensorflow或使用pip install,nvidia-smi和Theano就会停止工作。 更具体地说,nvidia-smi无限期挂起,而Theano只是拒绝在GPU模式下运行 ..
发布时间:2020-10-19 22:58:24 其他开发

CUDF错误处理大量实木复合地板文件

我的目录中有2000个实木复合地板文件。每个实木复合地板文件的大小约为20MB。使用的压缩为SNAPPY。每个镶木地板文件都有如下行: + ------------ +- ---------- + ----------------- + | customerId | productId | randomAttribute | + ------------ + ----------- ..
发布时间:2020-10-15 18:46:13 Python

使用CUDA C计算2000个2D数组的平均值

我有2000个2D数组(每个数组为1000x1000),我需要计算每个数组的平均值并将结果放入一个2000向量中。 通过为每个2D数组调用内核来做到这一点,但是我天真地想立即进行计算。 这就是我为一个内核完成的工作2D阵列。我想让内核在一个内核中针对2000个2D阵列执行此操作。 #include #include #include ..
发布时间:2020-10-13 01:42:10 其他开发

如何使用推力减少数组中非连续的数字段

我有一维数组“ A”,它是由许多数组“ a”组成的,例如: 中数组“ a”的示例p> 我正在实现一个代码,对不连续的段进行求和(对“ A”中每个数组“ a”的相同颜色的段中的数字求和,如下所示: “ 有什么想法可以有效地做到这一点? 非常感谢 注意:这些图片代表只有一个数组“ a”。大数组“ A”包含许多数组“ a” 解决方案 在一般情况下,预先不知道数据的 ..
发布时间:2020-10-13 01:34:19 其他开发

CUDA是否允许在同一GPU上同时使用多个应用程序?

我有NVIDIA的 Tesla K20m GPU 卡。从 CUDA 5.0 开始,允许来自同一GPU上同一应用程序的多个进程。 CUDA是否允许在同一GPU上同时执行不同的应用程序? 解决方案 取决于您的意思是“在同一时间”时间'。如果您的意思是“两个应用程序同时在同一张卡上具有CUDA上下文”,那么可以。 尽管您可能想使用 MPS 以获得全部好处并减少上下文切换。另请参见这个问题。 ..
发布时间:2020-10-13 01:33:58 其他开发

Cuda char *变量分配

这是本文中所选答案的跟进问题: cuda程序的输出与预期不符。 以下功能有效: __ global__ void setVal(char ** word) { char * myWord = word [(blockIdx.y * gridDim .x)+ blockIdx.x]; myWord [0] =‘H’; myWord [1] =‘e’; myWord ..
发布时间:2020-10-13 01:23:54 其他开发

Ubuntu 16.04上的TensorFlow的NVIDIA cuDNN发行版类型

对于Ubuntu 16.04,根据 TensorFlow 1.5安装说明,您需要安装cuDNN 7.0,但它们不要确切说明应该安装什么: cuDNN v7.0。有关详细信息,请参见 NVIDIA文档。确保您 按照NVIDIA 文档中的说明创建CUDA_HOME环境变量。 通过下载cuDNN的所有步骤,可以下载和安装多个选项: 显然,对于Ubuntu 16.04,它是Linux ..
发布时间:2020-10-13 01:17:46 其他开发

为什么我们无法访问主机端的设备内存?

我问了一个问题使用cudaMalloc()分配的内存是否可以被主机访问? ,尽管现在情况对我来说已经很清楚了,但是我仍然想知道为什么无法访问其中的设备指针主办。我的理解是CUDA驱动程序负责GPU DRAM内部的内存分配。因此,此信息(即我在设备中分配的内存的第一个地址是什么)可以传递给主机上运行的OS。然后可以访问该设备指针,即已分配设备存储器的第一个地址。我的理解有什么问题?请帮助我理解这一 ..
发布时间:2020-10-13 01:17:22 其他开发

有关CUDA中从块到SM分布的详细信息的问题

让我以具有1.3计算能力的硬件为例。 有30个SM。然后最多可以同时运行240个块(考虑到寄存器和共享内存的限制,对块数的限制可能要低得多)。超过240的那些块必须等待可用的硬件资源。 我的问题是,何时将超过240的那些块分配给SM。完成前240个模块中的一些块之后?还是当前240个块中的所有完成时? 我写了这样的一段代码。 #include #inc ..
发布时间:2020-10-13 01:10:23 其他开发

我的GPU有2个多处理器,每个处理器具有48个CUDA内核。这是什么意思?

我的GPU有2个多处理器,每个处理器具有48个CUDA内核。这是否意味着我可以并行执行96个线程块? 解决方案 不行。 来自CUDA C编程指南的第4章: 可以驻留的块数和扭曲数对于给定的内核,它们在多处理器上一起处理的方式取决于内核使用的寄存器和共享内存的数量以及多处理器上可用的寄存器和共享内存的数量。每个多处理器还具有最大数量的驻留块和最大数量的驻留扭曲。这些限制以及多处理 ..
发布时间:2020-10-13 01:08:12 其他开发

CUDA Takeit和CUDA sdk有什么区别

我正在Ubuntu 14.04上安装CUDA,并且具有Maxwell卡(GTX 9 **系列),并且我认为我已经使用工具包正确安装了所有内容,因为我可以编译示例。但是,我在应该安装SDK的地方读到了这句话(这似乎与sdk 4讨论过)。我不确定工具包和SDK是否不同?当我拥有更高版本的9系列卡时,这是否意味着我正在运行CUDA 6?这是我的nvcc版本 nvcc:NVIDIA(R)Cuda编 ..
发布时间:2020-10-13 01:05:12 其他开发

如何从Windows 10上的单个进程在辅助GPU上使用100%的VRAM?

这是在Windows 10计算机上,没有将显示器连接到Nvidia卡。 我已经包含nvida-smi的输出,显示> 5.04G可用。 这是张量流代码,要求它分配的分配量比我的分配量略多以前见过:(我希望它尽可能接近内存分数= 1.0) config = tf.ConfigProto() #config.gpu_options.allow_growth =真 config.gpu ..
发布时间:2020-10-13 01:05:07 其他开发

NVIDIA Fermi中的二级缓存

当查看NVIDIA Fermi架构中的性能计数器的名称(cuda的doc文件夹中的Compute_profiler.txt文件)时,我注意到对于L2缓存未命中,有两个性能计数器,即l2_subp0_read_sector_misses和l2_subp1_read_sector_misses。他们说这些是两片L2。 为什么它们有两片L2?与流多处理器体系结构有关系吗? 谢谢 解决方 ..
发布时间:2020-10-13 01:00:53 其他开发