tensorflow2.0相关内容
我正在使用示例“stateful_clients";在张量流联合示例中.我想使用我的预训练模型权重来初始化模型.我使用函数 model.load_weights(init_weight).但它似乎不起作用.第一轮的验证准确率仍然很低.我该如何解决问题? def tff_model_fn():“"“构建用于联合平均的完全初始化的模型."“"keras_model = get_five_layers
..
我正在使用 TF 2.2,我正在尝试使用 tf.data 创建管道. 以下工作正常: def load_image(filePath, label):print('加载文件:{}' + filePath)raw_bytes = tf.io.read_file(filePath)图像 = tf.io.decode_image(raw_bytes, expand_animations = Fa
..
我有非常大的培训 (30Gb) 文件. 由于所有数据都不适合我的可用内存,我想批量读取数据. 我看到有 实现了一种方式 使用 tfio.IODataset.from_hdf5() 函数以这种方式将 HDF5 读入 Tensorflow然后,由于 tf.keras.model.fit() 将 tf.data.Dataset 作为包含样本和目标的输入,我需要将 X 和 Y 压缩在一起然后使用 .
..
我正在尝试通过以下方式在 Jupyter anaconda 中创建张量板.write_images = True 时发生错误,否则,此代码工作正常.发生这种情况的任何原因? log_dir="logs\\fit\\" + datetime.datetime.now().strftime("%Y%m%d-%H%M%S")tensorboard_callback = tf.keras.callbac
..
当我尝试保存和加载包含 LSTM 层的模型时,加载通用失败,并显示 ValueError:找不到匹配的函数来调用从 SavedModel 加载. 类RegNet(模型):def __init__(self,middle_dim=50,state_dim=9,名称='RegNet',**夸格):super(RegNet, self).__init__()self.d1 = Dense(interm
..
我最近在我的计算机上安装了 tensorflow 2.0,但是当我尝试在我的 GPU 上运行它时,Jupyter 或 Vitual Studio 上的函数 tf.config.experimental.list_physical_devices('GPU')返回一个空数组.你知道为什么吗? 我的设置: 电脑:微星 处理器:Intel(R) Core(TM) i7-8750H CP
..
对不起,我的幼稚问题,但我正在尝试保存我的 keras 模型 (),其中我使用 TFBertModel() 函数作为隐藏层.为此,我使用了 tf.keras 包提供的 save() 函数. 但是我收到了这个错误: --------------------------------------------------------------------------NotImplementedE
..
在 TensorFlow 1.x 中,要更新张量,我会使用 tf.scatter_update,仅更新张量的相关部分. 我们如何在 TF 2.0 中做同样的事情? 解决方案 您可以使用 tf.tensor_scatter_nd_update(): 将tensorflow导入为tf将 numpy 导入为 np张量 = tf.convert_to_tensor(np.ones((2,
..
我想获得 TFLite 图的中间层输出.以下内容. 可视化 TFLite 图并获取中间值特定节点? 上述解决方案仅适用于冻结图.由于 SavedModel 是 TF 2.0 中序列化模型的首选方式,我想有一个保存模型的解决方案.我试图将--output_arrays 传递给“toco",并将savedModelDir 作为输入.这没有帮助. 从文档来看,SavedModel 中的
..
我正在尝试在自定义损失函数中进行一些自定义计算.但是当我记录自定义损失函数的语句时,似乎自定义损失函数只被调用一次(在 .fit() 方法的开头). 损失函数示例: def loss(y_true, y_pred):print("--- 损失函数的开始---")打印(y_true)损失 = tf.keras.losses.mean_squared_error(y_true, y_pred)
..
我在 tensorflow (tf.keras.layers.Dropout) 中实现的模型上使用了 dropout 层.我在训练期间设置了“training=True",在测试时设置了“training=False".性能很差.我也在测试期间不小心更改了“training=True",结果变得更好了.我想知道发生了什么?为什么它会影响训练损失值?因为我不会对培训进行任何更改,并且整个测试过程都在
..
努力使子分类损失函数在 Tensorflow (2.2.0) 中工作.最初尝试过此代码(我知道它对其他人有用 - 请参阅 https://github.com/keras-team/keras/issues/2115#issuecomment-530762739): import tensorflow.keras.backend 为 K从 tensorflow.keras.losses 导入 C
..
我想通过创建三个类在 TensorFlow 2.0 中构建自动编码器:编码器、解码器和自动编码器.由于我不想手动设置输入形状,因此我试图从编码器的 input_shape 推断解码器的输出形状. 导入操作系统进口商铺将 numpy 导入为 np将张量流导入为 tf从 tensorflow.keras 导入模型从 tensorflow.keras.layers 导入密集,层def mse(模型,原
..
如上.我尝试了那些无济于事: tf.random.shuffle( (a,b) )tf.random.shuffle( zip(a,b) ) 我曾经连接它们并进行改组,然后取消连接/解包.但是现在我处于 (a) 是 4D 秩张量而 (b) 是 1D 的情况,因此,无法连接. 我还尝试将种子参数提供给 shuffle 方法,以便它重现相同的洗牌,我使用它两次 => 失败.还尝试用随机洗牌的
..
在此处输入图片描述 上图为:错误是这样的: LOCAL.GENERATED_WITH_V2 = tf.__internal__.tf2.enabled()属性错误:模块“tensorflow.compat.v2.__internal__"没有属性“tf2" 谢谢 解决方案 从 Tensorflow 2.x 开始,keras 不再维护,它成为 keras 的一部分代码>张量流.我建
..
我想将层归一化应用到使用 tf.keras 的循环神经网络.在 TensorFlow 2.0 中,tf.layers.experimental 中有一个 LayerNormalization 类,但不清楚如何在 之类的循环层中使用它LSTM,在每个时间步(因为它被设计用于使用).我应该创建一个自定义单元格,还是有更简单的方法? 例如,在创建LSTM层时,在每个时间步应用dropout就像设置
..
在运行具有使用 tensorflow 2.0 的代码的 kubeflow 管道时.以下错误显示在每个时期的末尾 W tensorflow/core/kernels/data/generator_dataset_op.cc:103] 最终确定 GeneratorDataset 迭代器时发生错误:已取消:操作已取消 此外,经过一些时期后,它不显示日志并显示此错误 此步骤处于失败状态并
..
我尝试在 TensorFlow 2.0 (alpha) 中运行此代码: 导入 tensorflow_hub 作为 hub@tf.functiondef elmo(文本):elmo_module = hub.Module("https://tfhub.dev/google/elmo/2", trainable=True)返回 elmo_module(texts, signature="defaul
..
问题 我正在关注关于如何使用纯图像加载图像的 Tensorflow 2 教程Tensorflow,因为它应该比 Keras 更快.本教程在展示如何将结果数据集 (~tf.Dataset) 拆分为训练和验证数据集之前结束. 我检查了 参考 tf.Dataset 并且它不包含 split() 方法. 我尝试手动切片,但 tf.Dataset 既不包含 size() 也不包含 leng
..
我正在使用 Tensorflow 2.0 并面临以下情况: @tf.functiondef my_fn(items):.... #做东西返回 如果 items 是张量的字典,例如: item1 = tf.zeros([1, 1])item2 = tf.zeros(1)items = {"item1": item1, "item2": item2} 有没有办法使用 tf.function 的
..