nvidia相关内容
因此,我正在初始化期间在Vulkan中收集有关我的设备的一些信息,并找到vkGetPhysicalDeviceMemoryProperties返回的一组唯一的(或相当相似的)内存类型: 设备名称:GeForce GTX 1060 3GB 设备ID:7170 设备类型:2 设备供应商ID:4318 设备API版本:4194369(1.0.65) 设备驱动程序版本:1636843520(
..
在以前的CUDA版本中,atomicAdd并未实现双打,因此通常会像下面的代码用于在以前的CUDA版本中进行编译和运行,但是现在我收到此编译错误: test.cu(3): error: function "atomicAdd(double *, double)" has already been defined 但是,如果我删除实现,则会收到此错误: test.cu(33): er
..
我已经升级到Tensorflow版本1.0,并安装了具有cudnn 5.1版本和最新375.39的nvidia驱动程序的CUDA 8.0.我的NVIDIA硬件是使用p2.xlarge实例(特斯拉K-80)在Amazon Web Services上使用的硬件.我的操作系统是Linux 64位. 每次使用以下命令,我都会收到下一条错误消息:tf.Session() [ec2-user@ip
..
我已按照以下说明进行操作: https://gist.github.com/notilas/a30e29ce514970e821a34153c1e78b3f 但是无法完成. OSX:Sierra Tensorflow版本1.1.0(Google说v1.2不支持OSX CUDA) CUDA工具套件:8.0 CUDNN:6.0 Xcode:7.2.1 Anaconda:4.2(P
..
我正在使用ubuntu 14.04.我要安装CUDA.但是我不知道哪个版本适合我的笔记本电脑.我跟踪到我的驱动程序是: $cat /proc/driver/nvidia/version NVRM version: NVIDIA UNIX x86_64 Kernel Module 304.125 Mon Dec 1 19:58:28 PST 2014 GCC version: gcc
..
我有一个CUDA程序,其中一个块的线程在多次迭代中读取长数组的元素,并且内存访问几乎完全合并.当我分析时,全局负载效率超过100%(取决于输入,介于119%和187%之间). 全局负载效率的描述是"全局内存负载吞吐量与所需的全局内存负载吞吐量之比."这是否意味着我经常使用二级缓存和内存访问会从中受益吗? 我的GPU是GeForce GTX 780(开普勒架构). 解决方案 我在NVI
..
我想使用NVIDIA TensorRT运行我的Tensorflow模型.目前,TensorRT支持Caffe prototxt网络描述符文件. 我找不到将Tensorflow模型转换为Caffe模型的源代码.有什么解决方法吗? 解决方案 TensorRT 3.0通过其UFF(通用框架格式)支持TensorFlow图的导入/转换.缺少某些层的实现,需要通过IPlugin接口进行自定义实
..
我正在尝试使用SlimDX和DirectX10或11来控制nVidia 3D Vision Kit上的立体化过程.感谢这个问题我已经能够使其在DirectX 9中工作.但是,由于缺少一些方法,我无法使其在DirectX 10或11下工作. 算法如下: 渲染左眼图像 渲染右眼图像 创建一个能够同时包含它们和一个额外行的纹理(因此纹理大小将为2 *宽度,高度+ 1) 写入此NV_ST
..
我正在尝试使用OpenCvSharp包括GPU.我在Microsoft Visual Studio 2013中使用Nuget软件包管理器安装了OpenCvSharp. 我已经包含了这些行 using OpenCvSharp; using OpenCvSharp.CPlusPlus; u
..
按照以下指南尝试在MAC上安装nvidia工具包后: http://docs.nvidia.com/cuda/cuda-installation-guide-mac-os-x/index.html#axzz4FPTBCf7X 我收到了错误“包装清单解析错误",该错误导致我对此: NVidia CUDA工具包7.5 .27无法在OS X上安装.我卸载了dmg,结果是安装程序没有启动(它似乎先启动,然
..
每个人,我都遇到以下问题: 我使用此 AMI 。我安装了一些工具,例如屏幕,割炬等。然后我成功地使用GPU进行了一些实验,并创建了实例的映像,以便可以终止它并稍后再次运行。 稍后,我从之前创建的AMI启动了一个新实例。一切看起来都很好-屏幕,割炬,我的实验都在系统上进行,但我无法运行与以前相同的实验: NVIDIA-SMI之所以失败,是因为它无法与NVIDIA 驱动程序进行通信
..
我目前正在尝试使用CUSPARSE库,以加快HPCG的实施速度。但是,看来我在设备数据分配期间犯了某种错误。 这是导致 CUSPARSE_STATUS_MAPPING_ERROR 的代码段: / p> int HPC_sparsemv(CRS_Matrix * A_crs_d, FP * x_d,FP * y_d) { FP alpha = 1.0f; FP beta =
..
我只想将设备函数作为宿主函数的参数传递,原因是宿主函数可以使用该设备端函数启动某些内核. 我尝试了普通的C ++方式(通过指针/引用传递),CUDA调试器告诉我内核无法启动. 更新: 我想做的是: __host__ void hostfunction(int a, int (*DeviceFunction)(int)) { /...do something.../
..
因此,我一直在用C#测试性能计数器类,并且在探测CPU计数器以及Windows性能监视器中可以找到的几乎所有东西方面都取得了巨大的成功.但是,我无法访问"NVIDIA GPU"类别... 例如,下面的代码行通常是这样工作的. PerformanceCounter cpuCounter = new PerformanceCounter("Processor", "% Processor
..
我遇到了一个非常奇怪的问题,似乎没有其他人遇到相同的问题(根据Google). 当我从Win + R启动"cmd"并回显%PATH%时,就可以了.但是,当我从FreeCommander或Ant之类的其他程序启动cmd并回显%PATH%时,我会得到 nvInitDll: App c:\dev\java1.6.0_22\bin\java.exe - redirect success.
..
我现在正在通过NVIDIA提供的培训幻灯片学习CUDA.他们有一个示例程序,显示了如何将两个整数相加.代码如下: #include __global__ void add(int *a, int *b, int *c) { *c = *a+*b; } int main(void) { int a, b, c; // Host copies
..
我正在进行多个cudamemset调用,以便将我的值设置为0,如下所示: void allocateByte( char **gStoreR,const int byte){ char **cStoreR = (char **)malloc(N * sizeof(char*)); for( int i =0 ; i
..
我已经搜索了一个月以解决这个问题.我无法在CUDA中同步块. 我已经阅读了许多有关atomicAdd,合作组等的文章.我决定使用全局数组,以便一个块可以在全局数组的一个元素上写.写完之后,一个块线程等待(即被困在while循环中),直到所有块都写入全局数组为止. 当我使用3个块时,我的同步效果很好(因为我有3个SM).但是使用3个街区可让我占用12%的空间.因此,我需要使用更多的块,但
..
我的GPU是GeForce MX150,pascal架构,CC. 6.1,CUDA 9.1,Windows 10. 尽管我的GPU是Pascal,但是合作小组无法正常工作.我想将其用于块间同步. 我发现我的tcc模式没有激活. 我还发现在Windows的wddm中它不起作用. 如何使用合作组? 如何在Windows中激活tcc模式? 感谢您的回复. 解决方案 您无法在该GPU上激
..
我正在研究一个项目,该项目要求使用Clang将OpenMP卸载到Nvidia GPU.我可以按照此处中提到的说明安装Clang以支持卸载. > 系统规格 操作系统-Ubuntu 16.04 LTS Clang -version 4.00 处理器-Intel(R)Core(TM)i7 -4700MQ CPU Cuda -version-9.0 Nvidia GPU-GeForce
..