eager-execution相关内容
我正在尝试在 tf.Keras (TensorFlow 2.0.0rc0) 中为具有稀疏注释数据的 3-D U-Net 实现依赖于样本和像素的损失加权(Cicek 2016,arxiv:1606.06650). 这是我的代码: 将 numpy 导入为 np将张量流导入为 tf从 tensorflow.keras 导入层、损失、模型# 禁用 Eager Execution 使这个示例工作:#
..
假设我有 3 个 tfrecord 文件,分别是 neg.tfrecord、pos1.tfrecord、pos2.tfrecord. 我用 dataset = tf.data.TFRecordDataset(tfrecord_file) 这段代码创建了 3 个 Dataset 对象. 我的批量大小为 400,包括 200 个负数据、100 个 pos1 数据和 100 个 pos2
..
我正在尝试在贪婪解码方法上使用 tf.function 保存模型. 代码已按预期在急切模式(调试)下经过测试和工作.但是,它不适用于非急切执行. 该方法获取一个名为 Hyp 的 namedtuple,如下所示: Hyp = namedtuple('嘻嘻',field_names='score、yseq、encoder_state、decoder_state、decoder_outpu
..
我在 Tensorflow 中观看了关于 Eager Execution 的 Tensorflow 开发者峰会视频,主持人介绍了“Gradient Tape".现在我明白 Gradient Tape 跟踪 TF 模型中发生的自动微分. 我试图理解为什么我会使用渐变胶带?谁能解释一下 Gradient Tape 如何用作诊断工具?为什么有人会使用 Gradient Tape 而不是 Tenso
..
我正在尝试使用 keras 在 python2 中提供的 model.predict 命令并行执行模型预测.我将 tensorflow 1.14.0 用于 python2.我有 5 个模型 (.h5) 文件,并且希望预测命令并行运行.这是在 python 2.7 中运行的.我正在使用多处理池将模型文件名与多个进程的预测函数进行映射,如下所示, 将 matplotlib 导入为 plt将 nump
..
我正试图了解Tensorflow中GPU上的并行性,因为我需要将其应用于丑陋的图上. import tensorflow as tf from datetime import datetime with tf.device('/device:GPU:0'): var = tf.Variable(tf.ones([100000], dtype=tf.dtypes.float32),
..
我正在尝试在 tf.Keras (TensorFlow 2.0.0rc0)中针对稀疏的3-D U-Net实现与样本和像素相关的损耗加权注释数据(Cicek 2016,arxiv:1606.06650)。 这是我的代码: 从tensorflow.keras导入层,损失,模型 #导入numpy as np tensorflow as tf 使此示例起作用: #tf.python.
..