gpgpu相关内容

是否可以在 AMD GPU 上运行 CUDA?

我想将我的技能扩展到 GPU 计算.我熟悉光线追踪和实时图形(OpenGL),但下一代图形和高性能计算似乎是在 GPU 计算或类似的东西. 我目前在我的家用电脑上使用 AMD HD 7870 显卡.我可以为此编写 CUDA 代码吗?(我的直觉是否定的,但由于 Nvidia 发布了编译器二进制文件,我可能是错的). 第二个更普遍的问题是,我从哪里开始使用 GPU 计算?我敢肯定这是一个经 ..
发布时间:2021-11-27 11:31:00 其他开发

有关当前 GPU 架构的信息

我已经决定我的学士论文将是关于通用 GPU 计算以及哪些问题比其他问题更适合于此.我还试图找出当前 GPU 架构之间是否存在任何可能影响这一点的重大差异. 我目前正在寻找一些直接从制造商那里获取有关当前 GPU 架构的科学论文和/或信息,但我似乎找不到任何看起来足够详细的信息.因此,我希望有人能够建议一些论文或至少为我指明正确的方向. 谢谢 解决方案 阅读有关 OpenCL 和 ..
发布时间:2021-11-17 03:07:30 其他开发

任何关于并行架构设计模式的好资源?

一点背景: 我开始使用 GPGPU (OpenCL),我使用的是 Java 包装器 (jogamp.jocl) 希望它能为我提供一种抽象低级细节并在更高级别使用标准 OOP 的方法.我已经从各种 Hello World 示例中看到,我必须自己管理队列. 我的问题: 是否有任何已知的 GPGPU 模式或关于一般大规模并行架构的设计模式的良好资源(如书中)? 我的重点是生物模拟 ..
发布时间:2021-11-17 02:13:20 其他开发

用于并行求和的 Vulkan 计算着色器

我想实现这个算法https://dournac.org/info/gpu_sum_reduction在 Vulkan 的计算着色器中.在 OpenCL 中,这很容易,因为我可以明确声明哪些缓冲区是 __local,哪些是 __global.不幸的是,我似乎无法找到Vulkan 中的任何此类机制.请有经验的人给我举个例子,如何让这些东西在 Vulkan 中工作? 解决方案 Vulkan 中的 ..
发布时间:2021-09-20 20:32:34 其他开发

Intel Math Kernel Library (MKL) 是否使用 Intel CPU 中的集成 GPU?

我了解英特尔 MKL 会询问 CPU 是否存在扩展指令集,例如各种 SSE 到 SSE 4.2、AVX、AVX2 等,以便为给定 CPU 选择可用的最佳子例程. 既然英特尔的许多消费类 CPU 都包含集成 GPU,我想知道英特尔 MKL 是否使用它们? 解决方案 在英特尔 MKL 系统要求页面 https://software.intel.com/en-us/articles/int ..
发布时间:2021-09-17 19:17:37 其他开发

在OpenACC中正确使用device_type

我有一个 for 循环,如果目标硬件是NVIDIA,我想将它与OpenACC并行化,或者当目标硬件是AMD时,以串行方式运行它.我尝试了以下方法: #pragma acc循环\device_type(tesla)并行\device_type(radeon)序列对于(int z = 0; z ..
发布时间:2021-05-13 18:39:09 其他开发

来自OpenCL内核的处理字符串

有一些类似的字符串 std :: string第一,第二,第三;... 我的计划是将其地址收集到char *数组中: char *地址= {& first [0],& second [0],& third [0]} ... 并将char **地址传递给OpenCL内核. 有几个问题或疑问: 主要问题是我无法传递指针数组. 有什么好方法可以使用内核代码中的许多字 ..
发布时间:2021-05-13 18:39:06 其他开发

如何减少OpenCL入队时间/其他任何想法?

我有一个算法,我一直在尝试在nVidia上使用OpenCL加速它. 它必须处理大量数据(比如说100k到百万),其中每个数据:必须首先更新矩阵(在设备上)(使用数据和两个向量);并且只有在更新整个矩阵之后,两个向量(同样在设备上)才使用相同的数据进行更新.所以,我的主机代码看起来像这样 for(int i = 0; i ..
发布时间:2021-05-13 18:39:01 其他开发

TensorFlow是否使用GPU上的所有硬件?

NVidia GP100 具有30个TPC电路和240个“纹理单元".TPC和纹理单元是否被TensorFlow使用,或者这些可丢弃的硅片用于机器学习吗? 我正在运行的神经网络培训课程中查看GPU-Z和Windows 10的内置GPU性能监视器,并且发现各种硬件功能未得到充分利用.Tensorflow使用CUDA.我想,CUDA可以访问所有硬件组件.如果我知道差距在哪里(在Tensorflo ..
发布时间:2021-05-13 18:38:58 其他开发

从arrayfire数组中检索值作为标准类型和序列化

我最近在GTC看到了arrayfire的表演,我想我会尝试的.这是我在尝试使用它时遇到的一些问题.我正在使用AMD App SDK 2.9-1中的OpenCL在Windows 7系统上运行Visual Studio 2013. 最大的麻烦是,我无法在调试器中查看数组对象的状态以查看其中的数据.我必须依靠af_print语句.太烦人了.有什么方法可以配置调试器,让我无需打印就可以查看阵列中的数 ..
发布时间:2021-05-13 18:38:50 其他开发

OpenCL和OpenGL的计算着色器之间有什么区别?

我知道OpenCL可以控制GPU的内存架构,因此可以实现更好的优化,但是,撇开这一点,我们可以使用Compute Shaders进行矢量运算(加法,乘法,求逆等)吗? 解决方案 与其他OpenGL着色器类型相比,计算着色器与计算机图形不直接相关,并且提供了与CUDA类似的更直接的底层硬件抽象和OpenCL.它提供可自定义的工作组大小,共享内存,组内同步以及CUDA和OpenCL已知和喜爱的 ..
发布时间:2021-05-13 18:38:47 其他开发

一个Fortran-OpenACC例程如何调用另一个Fortran-OpenACC例程?

我目前正在尝试通过使用带有PGI(15.10)编译器的OpenACC将大多数例程移植到GPGPU来加速频谱元素流体求解器.源代码是用OO-Fortran编写的.该软件具有“层".调用其他函数和子例程的子例程.为了使用openacc将代码传递给GPU,我一直在尝试将"$ acc例程"放置在GPU中.每个例程中需要移植的指令.编译期间,使用"pgf90 -acc -Minfo = accel",我收到 ..
发布时间:2021-05-09 19:21:09 其他开发

CUDA-从3D阵列提取图层

我有一个3D矩阵,其中x-y平面表示图像,z-平面表示图像层. 问题是,当我尝试使用idz提取第一层(或其他层)时,没有得到预期的结果.看起来数组一旦放在CUDA中,对于x,y或z的索引就比我期望的要大(与pycuda一样).我通过下面的结果数组看到了这一点. 以下是此迷你示例的逐步过程(我使用通用int编号表示图像,以保存上传的图像和整个代码)! 我在这里导入库并定义图像大小和图层.. ..
发布时间:2021-04-27 20:13:37 其他开发

对于小数据集,为什么使用cula(dgesv)求解线性方程组比mkl(dgesv)慢

我已经编写了CUDA C和C程序,以使用CULA例程dgesv和MKL例程dgesv求解矩阵方程Ax = b.对于较小的数据集,CPU程序似乎比GPU程序快.但是随着数据集增加到500个以上,GPU克服了CPU的困扰.我正在使用配有i3 CPU和Geforce 525M GPU的戴尔笔记本电脑.对于GPU最初的缓慢性能的最佳解释是什么? 我编写了另一个程序,该程序接受两个向量,将它们相乘并相 ..
发布时间:2021-04-27 20:13:11 其他开发

CUDA错误标识符"__stcs"未定义

我想在GPU Pascal,CUDA 10.0上使用带有缓存提示的 store函数 __ stcs . 在《 CUDA C ++编程指南》 没有提及数据类型为 unsigned long long 的任何标头,但是编译器返回错误 identifier"__stcs".是未定义的. 如何解决此编译错误? 解决方案 这些内在函数要求CUDA 11.0,它们是CUDA 11.0的新功 ..
发布时间:2021-04-27 20:12:41 其他开发

从非合并访问到合并内存访问CUDA

我想知道是否有任何简单的方法可以将非分组内存访问转换为合并内存访问.让我们以这个数组为例: dW [[w0,w1,w2] [w3,w4,w5] [w6,w7] [w8,w9]] 现在,我知道,如果块0中的线程0访问 dW [0] ,然后块0中的线程1访问 dw [1] ,那就是合并访问在全局内存中.问题是我有两次手术.如上所述,第一个被合并.但是第二个不是因为块0中的线程1需要对 dW [ ..
发布时间:2021-04-27 20:12:10 其他开发

什么是“多头"?和“短"字样计分板MIO/L1TEX?

在最近的NVIDIA微体系结构中,有一个新的(?)此处). 我的问题: 形容词“短"是什么意思?或“多头"描述?它是单个记分牌的长度吗?两种不同的操作有两种不同的记分牌? MIO之间这种有点非直觉的二分法是什么意思-有些但不是全部都是内存操作;和L1TEX操作,它们都是内存操作吗?是二分法吗停滞原因仅仅是因为还是真正的硬件? 解决方案 NVIDIA GPU有两种指令分类: ..
发布时间:2021-04-27 20:11:07 其他开发

在PyCUDA上共享内存入门

我正在尝试通过玩以下代码来了解共享内存: 将pycuda.driver导入为drv导入pycuda.tools导入pycuda.autoinit导入numpy从pycuda.compiler导入SourceModulesrc ='''__global__ void reduce0(float * g_idata,float * g_odata){extern __shared__ float s ..
发布时间:2021-04-27 20:10:32 其他开发