gpu相关内容
我需要调整一些 3D 数据的大小,就像在用于 2d 数据的 tf.image.resize_images 方法中一样. 我想我可以尝试在其上循环运行 tf.image.resize_images 并交换轴,但我认为必须有更简单的方法.简单的最近邻应该没问题. 有什么想法吗?这并不理想,但我可以解决数据仅为 0 或 1 的情况并使用以下内容: tf.where(boolMap, tf.
..
假设纹理、顶点和着色器数据已经在显卡上,您不需要向显卡发送太多数据.有几个字节可以识别数据,大概是一个 4x4 矩阵,以及一些其他参数. 那么所有的开销来自哪里?操作是否需要与 gpu 进行某种握手? 为什么发送一个包含一堆小模型的单个网格,在 CPU 上计算,通常比发送顶点 id 和变换矩阵更快?(第二个选项看起来应该发送更少的数据,除非模型小于 4x4 矩阵) 解决方案 首
..
当我尝试在 Android Studio 2.0 中启动 Android 虚拟设备时,出现以下错误. 错误:无效的 GPU 模式“台面",使用以下之一:在主机外来宾 下面给出了与此错误相关的屏幕截图:config.ini 文件并将相应的行更改为:hw.gpu.mode=guest然后保存config.ini,然后再次运行虚拟设备.它应该可以工作.
..
我正在学习 Arduino 微控制器课程,我正在做我的最后一个项目:一个根据外壳温度工作的自动计算机冷却系统. 我无法使用以下来源获得我的 NVIDIA GPU 核心温度:此 MSDN 链接 或 此 NVIDIA 链接.如何获取 GPU 的温度值? 我对 C# 的了解是基本的,我无法从那些手册或 MSDN 中的代码示例中得出结论. 解决方案 经过长时间的搜索,我找到了获取数据的
..
我已经决定我的学士论文将是关于通用 GPU 计算以及哪些问题比其他问题更适合于此.我还试图找出当前 GPU 架构之间是否存在任何可能影响这一点的重大差异. 我目前正在寻找一些直接从制造商那里获取有关当前 GPU 架构的科学论文和/或信息,但我似乎找不到任何看起来足够详细的信息.因此,我希望有人能够建议一些论文或至少为我指明正确的方向. 谢谢 解决方案 阅读有关 OpenCL 和
..
如何为 GPU 访问映射系统内存 (RAM)?我很清楚虚拟内存如何为 cpu 工作,但不确定当 GPU 访问 GPU 映射的系统内存(主机)时如何工作.基本上与数据如何从系统内存复制到主机内存有关,反之亦然.你能提供参考文章支持的解释吗? 解决方案 我发现以下幻灯片非常有用:http://developer.amd.com/afds/assets/presentations/1004_fi
..
我最近阅读了很多关于软件(主要是科学/数学和加密相关)的内容,这些软件将部分计算转移到 GPU 上,从而使支持的操作的速度提高 100-1000 (!) 倍. 是否有库、API 或其他方式可以通过 C# 在 GPU 上运行某些内容?我正在考虑简单的 Pi 计算.我有一个 GeForce 8800 GTX,如果这完全相关的话(不过我更喜欢独立于卡的解决方案). 解决方案 这是一项非常新
..
我正在 2080TI * 1 中训练 EfficientDet-D7(head_only=True). 我正在使用 NVIDIA/APEX:amp. 当我使用 opt_level=O1 时,尽管与不使用 apex 时相比,内存确实减少了. 但是,当我使用opt_level=O2或O3时,会消耗更多内存. 我正在试验相同的 2080 Ti,通过创建两个具有相同 docker
..
不幸的是,滤镜在 GPU 模式下不起作用(投影、发光).我正在寻找机会在这种模式下将这些效果用于文本.我欢迎任何建议. 解决方案 Astraport 提到,每次使用 bitmapData.draw()bitmapData.draw() 更新文本时,您都需要将文本字段绘制为 bitmapData代码>. 如果您使用 textField.getBounds 来确定您需要的 bitmapD
..
我是 Matlab R2012b 的 Parallel 工具箱的新手,想知道克服以下问题的最佳方法是什么. 我正在分析图像中每个像素的邻域.这是并行化的绝佳案例.但是,我似乎无法让它工作. 问题的主要问题是应该将一些“常量"参数传递给函数.因此应该为每个像素调用该函数,但是,它还需要访问周围的像素.(最好通过将图像作为某种常量参数和要分析的像素的坐标传递). 输出是每个像素一个值
..
我有一项任务是用 C++ 在 Windows 中收集有关 GPU 的信息,但我不知道从哪里开始!有什么想法吗? 更新:我想要名称、vram、dac、制造商、版本、时钟. update2:如果我使用 win32_videocontroller 类,我只是得到了当前使用的显卡的属性,但是如果有更多的我需要所有显卡的属性. 解决方案 您可能想要使用 WMI 和 Win32_Video
..
当我在 conda 环境中构建 DCNv2 时,我收到了这条消息. 我已经通过 nvidia-smi 检查过 cuda: 2021 年 4 月 6 日星期二 20:03:13+------------------------------------------------------------------------------+|NVIDIA-SMI 460.67 驱动程序版本:460
..
我正在 GCP Compute Engine 上使用支持 GPU 的虚拟机. 作为操作系统,我使用容器优化版本 (COS 89-16108.403.47 LTS),该版本通过 SSH 运行“cos-extensions install gpu"来支持简单的 GPU 驱动程序安装(请参阅 Google 文档). 到目前为止,这一直运行良好,直到几天前我开始收到一条错误消息,说某些驱动程序
..
我最近在我的计算机上安装了 tensorflow 2.0,但是当我尝试在我的 GPU 上运行它时,Jupyter 或 Vitual Studio 上的函数 tf.config.experimental.list_physical_devices('GPU')返回一个空数组.你知道为什么吗? 我的设置: 电脑:微星 处理器:Intel(R) Core(TM) i7-8750H CP
..
机器设置: GPU:GeForce RTX 3060 驱动程序版本:460.73.01 CUDA 驱动程序版本:11.2 Tensorflow:tensorflow-gpu 1.14.0 CUDA 运行时版本:10.0 cudnn:7.4.1 注意: CUDA Runtime 和 cudnn 版本符合 Tensorflow 官方文档中的指南. 我也
..
问题:当我运行以下命令时 python -c "import tensorflow as tf;tf.test.is_gpu_available();打印('版本:' + tf.__version__)"; 错误: RuntimeError:GPU:0 上的 CUDA 运行时隐式初始化失败.状态:所有支持 CUDA 的设备都忙或不可用 详情: WARNING:tensorflow:F
..
我花了几个小时来配置我的电脑,最终在 GPU 而不是 CPU 上制作了 python 训练数据.但是,由于某种原因,我的模型在它们的 epoch 中途不断被中断,我无法完成模型的训练. 等待计算机并不能解决这个问题,我也无法中断内核.我尝试了其他人的解决方案,但仍然没有多少运气. 如果我使用 CPU(以爬行速度),我可以正常训练我的模型,但是当我切换到 GPU 时,我的模型训练得非常快
..
我正在尝试使用我的 GPU NVIDIA GEFORCE GTX 1050 和 tensorflow 来训练神经网络.我尝试了不同神经网络的不同代码示例,结果总是 GPU 利用率为 8%,计算速度比 CPU 慢得多.在此屏幕中,您可以查看列车期间的利用率. 有什么解决办法吗? 解决方案 这取决于您的应用程序.GPU 利用率低并不罕见.尝试增加批量大小
..
使用以前版本的 tensorflow+keras,我能够设置“allow_growth"选项并使用 nvidia-smi 查看实时内存使用情况.否则它会被进程立即分配.现在,在 tensorflow 2.1 中使用 tf.keras 我找不到办法做到这一点.任何帮助表示赞赏! 解决方案 如果您有多个 GPU,您将只允许第一个 GPU 的内存增长. physical_devices = t
..
我使用免费版的 Google Colab 来运行我的 Tensorflow 代码.12 小时后,它给出错误消息“由于 Colab 中的使用限制,您当前无法连接到 GPU".我应用了“出厂重置运行时"以再次使用 GPU,但它不起作用.此外,我终止了所有会话并重新开始,但此过程也没有给出任何解决方案.有没有什么方法可以在 Google Colab 免费版上再次使用 GPU.谢谢. 解决方案 如
..