tensorflow2.0相关内容
我们通过冻结图来保存它们,从而从TF1部署了许多模型: tf.train.write_graph(self.session.graph_def, some_path) # get graph definitions with weights output_graph_def = tf.graph_util.convert_variables_to_constants( se
..
我想在使用tf.compat.v1.nn.rnn_cell.LSTMCell时将层归一化应用于递归神经网络. /p> 有一个LayerNormalization类,但是我应该如何在LSTMCell中应用它. 我正在使用tf.compat.v1.nn.rnn_cell.LSTMCell,因为我想使用投影层.在这种情况下,我应该如何实现归一化. class LM(tf.keras.Model)
..
续前:我正在复制如下图所示的感知样式转换模型: 我终于对COCO2014数据集中的1000张图像进行了模型学习.但是后来我尝试运行整个数据集的2个时期,每个时期20695个批次(根据研究论文).它开始很快学习,但是经过大约3700个步骤后,它神秘地失败了. (每100批次保存1张生成的图像,最新的保存在左侧) 我对保存的检查点所做的预测显示了相似的结果: 看起来像是在故障点附近的损失,
..
Keras的文档在此处中介绍了如何编写自定义层,方法是从Layer类继承.现在,我有另一个自定义图层CustomLayer,我想从中继承该图层.我们将其称为新的自定义图层CustomLayer2.我猜想,即使我不是从Layer继承而是从CustomLayer继承,继承过程也将与链接文档中描述的相同,但是我还将继承CustomLayer的自定义功能. 无论如何,在这个自定义层CustomLay
..
我有一个自定义模型,该模型采用任意“隐藏模型"作为输入,并将其包装在另一个张量中,该张量将隐藏模型的输出视为返回值,并通过将1乘以原始输出来计算隐式输出数据: class Model(tf.keras.Model): def __init__(self, hidden_model): super(Model, self).__init__(name='')
..
以下代码显示了一种可行的方法,而另一种则失败了. axis = 0上的BatchNorm不应该取决于batchsize,或者如果它确实如此,则应在文档中明确说明. In [118]: tf.__version__ Out[118]: '2.0.0-beta1' class M(tf.keras.models.Model): import numpy as np import te
..
我有一个要在多个GPU上训练的LSTM模型.我将代码转换为执行此操作,在nvidia-smi中,我可以看到它正在使用所有GPU的所有内存,并且每个GPU都使用了大约40%的BUT,估计每批训练的时间几乎与1 gpu. 有人可以引导我并告诉我如何在多个GPU上正确训练吗? 我的代码: import tensorflow as tf from tensorflow.keras.mo
..
我有一个tfrecord,包含23个班级,每个班级有35张图像(总共805张).我当前的tfrecord读取功能是: def read_tfrecord(serialized_example): feature_description = { 'image': tf.io.FixedLenFeature((), tf.string), 'label': tf.io.Fixe
..
我想知道是否有一种方法可以知道tflite中特定节点的输入和输出列表?我知道我可以获取输入/输出详细信息,但这不允许我重构Interpreter内部发生的计算过程.所以我要做的是: interpreter = tf.lite.Interpreter(model_path=model_path) interpreter.allocate_tensors() input_details = i
..
我正在建立时间序列分类模型.数据非常不平衡,所以我决定使用加权交叉熵函数作为损失. Tensorflow提供 tf.nn.weighted_cross_entropy_with_logits ,但我不确定如何在TF 2.0中使用它.因为我的模型是使用tf.keras API构建的,所以我正在考虑创建这样的自定义损失函数: pos_weight=10 def weighted_cross
..
在一次大学练习中,我使用了TF2.0的模型子分类API.这是我的代码(如果您想知道的话,这就是Alexnet架构): class MyModel(Model): def __init__(self): super(MyModel, self).__init__() # OPS self.relu = Activation('relu',
..
在TF 1.x中,可以使用自定义变量构建图层.这是一个示例: import numpy as np import tensorflow as tf def make_custom_getter(custom_variables): def custom_getter(getter, name, **kwargs): if name in custom_variabl
..
我有一个Keras(顺序)模型,可以使用Tensorflow 1.13中的自定义签名defs进行保存,如下所示: from tensorflow.saved_model.utils import build_tensor_info from tensorflow.saved_model.signature_def_utils import predict_signature_def, bui
..
不起作用: from tensorflow.python.keras.layers import Input, Dense from tensorflow.python.keras.models import Model from tensorflow.python.keras.optimizers import Nadam import numpy as np ipt = Input(s
..
我想在张量板上跟踪渐变. 但是,由于会话运行语句不再重要,并且 tf.keras.callbacks.TensorBoard 的 write_grads 参数已已被描述,因此我想了解在使用 Keras 或 tensorflow 2.0 进行训练时如何跟踪渐变. 我当前的方法是为此目的创建一个新的回调类,但是没有成功.也许其他人知道如何完成这种高级工作. 为测试而创建的代码如下所示,但是
..
我正在尝试使用以下两个损失函数来优化模型 def loss_1(pred, weights, logits): weighted_sparse_ce = kls.SparseCategoricalCrossentropy(from_logits=True) policy_loss = weighted_sparse_ce(pred, logits, sample_weight
..
我将keras模型定义为 class ConvLayer(Layer) : def __init__(self, nf, ks=3, s=2, **kwargs): self.nf = nf self.grelu = GeneralReLU(leak=0.01) self.conv = (Conv2D(filters = nf,
..
我试图估计我的keras模型的预测时间,并意识到一些奇怪的事情.除了正常情况下速度较快外,模型偶尔还需要很长时间才能得出预测.不仅如此,这些时间还增加了模型运行的时间.我添加了一个最小的工作示例来重现该错误. import time import numpy as np from sklearn.datasets import make_classification from tensorf
..
我们最近将TF 2.0转换为Keras,但是当将其与2.0上的DNNClassifier Estimator进行比较时,我们使用Keras的速度慢了大约4倍.但是我无法为自己的生活弄清楚为什么会这样.两者的其余代码都相同,使用一个input_fn()返回相同的tf.data.Dataset,并使用相同的feature_columns.数天以来一直在为这个问题而苦苦挣扎.任何帮助将不胜感激.谢谢
..
我有使用未编译的keras代码构建的模型,并试图通过自定义训练循环运行它们. TF 2.0急切(默认)代码在CPU(笔记本电脑)上运行大约30秒.当我使用包装的tf.function调用方法创建一个keras模型时,它的运行速度大大降低,并且似乎需要很长时间才能启动,尤其是“第一次"启动. 例如,在tf.function代码中,对10个样本的初始训练需要40s,而对10个样本的后续训练
..