tensorflow-gpu相关内容
我安装了TensorFlow-GPU,以便在我的GPU上运行TensorFlow代码。但我不能让它跑起来。它不断地给出上述错误。以下是我的示例代码,后跟错误堆栈跟踪: import tensorflow as tf import numpy as np def check(W,X): return tf.matmul(W,X) def main(): W = tf.Va
..
我的深度学习模型使用的是 Tensorflow(CPU 版本).具体使用 DNNRegressor Estimator 进行训练,使用给定的参数集(网络结构、隐藏层、alpha 等)虽然我能够减少损失,但模型需要非常长的学习时间(大约 3 天.)和时间每 100 步需要 9 秒. 我看到了这篇文章:-https://medium.com/towards-data-科学/如何训练张量流模型-7
..
我正在研究我的硕士项目,它使用 keras 和 tensorflow 后端.我有 intel(r) hd graphics 520,所以我无法使用 tensorflow-gpu.cpu 版本工作正常.有没有什么办法可以将 tensorflow-gpu 与 intel(r) hd graphics 520 一起使用? 解决方案 Tensorflow GPU 支持需要安装 Nvidia Cud
..
我正在对 tensorflow 服务模型进行预测,然后返回这个 PredictResponse 对象作为输出: 结果: 输出{关键:“输出"价值 {数据类型:DT_FLOAT张量形状{昏暗{尺寸:1}昏暗{尺寸:20}}浮点值:0.000343723397236浮点值:0.999655127525浮点值:3.96821117632e-11浮点值:1.20521548297e-09浮点值:2
..
我正在尝试使用 tensorflow 实现跳过思想模型,当前版本位于此处. 目前我使用我机器的一个 GPU(总共 2 个 GPU)并且 GPU 信息是 2017-09-06 11:29:32.657299: I tensorflow/core/common_runtime/gpu/gpu_device.cc:940] 发现设备 0 的属性:名称:GeForce GTX 1080 Ti主要:
..
似乎已经有几个线程/问题,但在我看来这并没有解决: 如何在 keras 中使用 tensorflow 度量函数模型? https://github.com/fchollet/keras/issues/6050 https://github.com/fchollet/keras/issues/3230 人们似乎在变量初始化或指标为 0 方面遇到问题. 我需要计算不同的细
..
我构建了 docker 镜像的 gpu 版本 https://github.com/floydhub/dl-docker 使用 keras 2.0.0 版和 tensorflow 0.12.1 版.然后我运行了 mnist 教程 https://github.com/fchollet/keras/blob/master/examples/mnist_cnn.py 但意识到 keras 没有使用 G
..
我正在考虑从不同的生产机器学习框架移植到 TensorFlow.在我们当前用于训练和推理的系统中,我们将模型的副本加载到与机器上一样多的 GPU 上. 我想暂时保留这种负载平衡方式.在哪里可以找到将 TF 模型的一个副本加载到机器上可用的每个 GPU 上的简单示例? 解决方案 以下是 https://github.com/rafaljozefowicz/lm/blob/master/
..
我使用 tensorflow 在 Nvidia Geforce 1060(6G 内存)上训练 CNN,但我遇到了 OOM 异常. 前两个时期的训练过程很好,但在第三个时期出现了 OOM 异常. ============================2017-10-27 11:47:30.219130: W tensorflow/core/common_runtime/bfc_allo
..
重现问题 几天前我运行了 tensorflow,但它停止工作了.使用教程代码对其进行测试后,mnist_softmax 和 mnist_deep 失败.Tensorflow 成功地运行了简单的 helloworld 内容. 我的尝试 与 delton137 一样,我尝试设置 allow_growth 为 True 或 per_process_gpu_memory_fraction
..
我使用的是 keras 2.0.6.tensorflow 的版本是 1.3.0. 我的代码可以在 theano 后端运行,但在 tensorflow 后端运行失败: F tensorflow/core/framework/tensor_shape.cc:241] 检查失败:大小 >= 0 (-14428307456 vs. 0) 我想知道是否有人能想到可能导致这种情况的任何可能原
..
我使用 TensorFlow 函数 tf.image.resize_images 来调整我的图像大小,但我在代码中遇到了这个错误:ValueError: 'images' 不包含任何形状.完整代码如下: # -*- 编码:utf-8 -*-将张量流导入为 tf文件 = ["./1.jpg"]f = tf.train.string_input_producer(文件)阅读器 = tf.WholeF
..
我有一个形状为 [a,n] 的张量 A,我需要使用另一个形状为 B 的张量执行操作 my_op[b,n] 使得结果张量 C 的形状为 [a,b]. 换句话说:对于 A (A[0], A1,...A[n]) 我需要在 Beach 子张量执行元素明智的操作/强>. 因此生成的张量将包含以下内容: [ [ A[0] op B[0] , A[0] op B[1], ... , A[0] op
..
我正在尝试使用 tensorflow 实现跳过思想模型,当前版本位于此处. 目前我使用我机器的一个 GPU(总共 2 个 GPU)并且 GPU 信息是 2017-09-06 11:29:32.657299: I tensorflow/core/common_runtime/gpu/gpu_device.cc:940] 发现设备 0 具有以下属性:名称:GeForce GTX 1080 Ti
..
我们正在 Tensorflow 上运行多 GPU 作业,并评估从基于队列的模型(使用 string_input_producer 接口)到新的 Tensorflow Dataset API 的迁移.后者似乎提供了一种更简单的方法来同时在训练和验证之间切换. 下面的一段代码展示了我们是如何做到这一点的. train_dataset, train_iterator = get_dataset
..
我想指定 gpu 来运行我的进程.我设置如下: 将 tensorflow 导入为 tf使用 tf.device('/gpu:0'):a = tf.constant(3.0)使用 tf.Session() 作为 sess:为真:打印 sess.run(a) 但是它仍然在我的两个 gpu 中分配内存. |0 7479 C 蟒蛇 5437MiB|1 7479 C 蟒蛇 5437MiB 解决方案
..
我正在尝试索引张量以从一维张量中获取切片或单个元素.我发现使用 numpy 索引[:] 和 slice vs tf.gather 的方式时有显着的性能差异(几乎 30-40%). 我还观察到 tf.gather 在用于标量(循环未堆叠张量)时具有显着的开销,而不是 tensor .这是一个已知问题吗? 示例代码(效率低下): 用于 graph.nodes() 中的 node_idx
..
我正在尝试在 .csv 数据集(5008 列,533 行)上训练模型.我正在使用 textreader 将数据解析为两个张量,一个保存要在 [example] 上训练的数据,另一个保存正确的标签 [label]: def read_my_file_format(filename_queue):读者 = tf.TextLineReader()键,record_string = reader.rea
..
我无法在简单、保存的 TensorFlow 图(Python 2.7;由 pip install tensorflow-gpu==1.0.1 安装的包)上成功运行 optimize_for_inference 模块. 背景 保存 TensorFlow 图 这是我的 Python 脚本,用于生成并保存一个简单的图形,以将 5 添加到我的输入 x placeholder 操作.
..
我刚刚为gpu安装了tensorflow,并为我的CNN使用了keras.在训练期间,我的GPU仅使用了5%,但是在训练期间使用了6 GB的vram中的5.有时会出现故障,在控制台上打印0.000000e + 00,gpu降到100%,但几秒钟后,训练速度会降低到5%.我的GPU是Zotac gtx 1060 mini,我使用的是Ryzen 5 1600x. Epoch 1/25 121/
..