tensorflow2.x相关内容

Tensorflow 2.1.0 - 函数构建代码之外的操作正在传递一个“图形"张量

我正在尝试实施最近的一篇论文.此实现的一部分涉及从 tf 1.14 迁移到 tf 2.1.0.该代码适用于 tf 1.14,但不再有效. 注意:如果我禁用急切执行 tf.compat.v1.disable_eager_execution() 那么代码会按预期工作. 这是解决方案吗?我之前在 TF 2.x 中制作了大量模型,并且从未禁用过 Eager Execution 来实现正常功能. ..

如何使用 learning_phase 在 TF 2.3 Eager 中获得中间输出?

以下示例适用于 2.2;K.function 在 2.3 中发生了显着变化,现在在 Eager 执行中构建一个 Model,所以我们正在传递 Model(inputs=[learning_phase,...]). 我确实有一个解决方法,但它很黑,而且比 K.function 复杂得多;如果没有人可以展示一个简单的方法,我会发布我的. from tensorflow.keras.layers ..
发布时间:2021-12-19 13:12:21 Python

如何在 Tensorflow 2.0 中获得其他指标(不仅仅是准确性)?

我是 Tensorflow 世界的新手,我正在研究 mnist 数据集分类的简单示例.我想知道除了准确性和损失(并可能显示它们)之外,我如何获得其他指标(例如精度、召回率等).这是我的代码: from __future__ import absolute_import, Division, print_function, unicode_literals将张量流导入为 tf从 tensorflo ..

以相同的顺序打乱两个张量

如上.我尝试了那些无济于事: tf.random.shuffle( (a,b) )tf.random.shuffle( zip(a,b) ) 我曾经连接它们并进行改组,然后取消连接/解包.但是现在我处于 (a) 是 4D 秩张量而 (b) 是 1D 的情况,因此,无法连接. 我还尝试将种子参数提供给 shuffle 方法,以便它重现相同的洗牌,我使用它两次 => 失败.还尝试用随机洗牌的 ..
发布时间:2021-09-05 20:17:37 其他开发

如何在张量流中将向量保存在字典中?

似乎 tf.lookup.experimental.DenseHashTable 不能容纳向量,我找不到如何使用它的示例. 解决方案 您可以在下面找到 Tensorflow 中向量字典的简单实现.也是tf.lookup.experimental.DenseHashTable和tf.TensorArray的用法示例. 如前所述,向量不能保存在tf.lookup.experimental ..
发布时间:2021-09-05 20:07:25 其他开发

如何使用 Tensorflow 2.2 pb 文件运行推理?

我关注了网站:https://leimao.github.io/blog/Save-Load-Inference-From-TF2-Frozen-Graph/但是,我仍然不知道如何使用 frozen_func 运行推理(请参阅下面的代码).请告知如何在 TensorFlow 2.2 中使用 pb 文件运行推理.谢谢. 将 tensorflow 导入为 tfdef wrap_frozen_gra ..
发布时间:2021-09-05 19:58:40 其他开发

如何在 TensorFlow 中有效地分配给张量的切片

我想在 TensorFlow 2.x 中的一个模型中为输入张量的切片分配一些值(我使用的是 2.2,但准备接受 2.1 的解决方案).我正在尝试做的一个非工作模板是: 将tensorflow导入为tf从 tensorflow.keras.models 导入模型类 AddToEven(模型):定义调用(自我,输入):输出 = 输入输出[:, ::2] += 输入[:, ::2]返回输出 当然在构 ..
发布时间:2021-09-05 19:41:32 Python

tf model.fit() 中的 batch_size 与 tf.data.Dataset 中的 batch_size

我有一个可以放入主机内存的大型数据集.但是,当我使用 tf.keras 训练模型时,它会产生 GPU 内存不足问题.然后我查看 tf.data.Dataset 并希望使用它的 batch() 方法来批处理训练数据集,以便它可以在 GPU 中执行 model.fit().根据其文档,示例如下: train_dataset = tf.data.Dataset.from_tensor_slices(( ..
发布时间:2021-09-05 19:30:32 其他开发

如何防止 tensorflow 分配 GPU 内存的全部?

我在一个计算资源共享的环境中工作,即我们有几台服务器机器,每台机器都配备了几个 Nvidia Titan X GPU. 对于中小型模型,Titan X 的 12 GB 通常足以让 2-3 人在同一 GPU 上同时运行训练.如果模型足够小以至于单个模型不能充分利用 GPU 的所有计算单元,那么与运行一个接一个的训练过程相比,这实际上会导致加速.即使在并发访问 GPU 确实会减慢个人训练时间的情 ..
发布时间:2021-06-25 19:00:43 Python

Tensorflow 2.0 不能使用 GPU,cuDNN 出问题了?:无法得到卷积算法.这可能是因为 cuDNN 初始化失败

我正在尝试理解和调试我的代码.我尝试使用在 GPU 上的 tf2.0/tf.keras 下开发的 CNN 模型进行预测,但得到了那些错误消息.有人可以帮我解决吗? 这是我的环境配置 环境:蟒蛇 3.6.8张量流-GPU 2.0.0-rc0英伟达 418.xCUDA 10.0cuDNN 7.6+** 和日志文件, 2019-09-28 13:10:59.833892: 我tensorfl ..
发布时间:2021-06-11 18:53:47 其他开发

Tensorflow在GPU上比在CPU上慢

使用Keras与Tensorflow后端,我正在尝试训练LSTM网络,并且在GPU上运行它比在CPU上运行要花费更长的时间. 我正在使用fit_generator函数训练LSTM网络.每个纪元需要CPU〜250秒,而每个纪元需要GPU〜900秒.我的GPU环境中的软件包包括 keras-applications 1.0.8 py_0 anacondakeras-base 2.2.4 py ..
发布时间:2021-05-13 18:42:10 其他开发

实例批次在Google AI平台在线预测上提供的TensorFlow模型太慢

我正在尝试将TensorFlow模型部署到Google AI平台以进行在线预测.我遇到了延迟和吞吐量问题. 该模型在我的计算机上运行不到1秒(仅使用Intel Core I7 4790K CPU)即可生成单个图像.我将其部署到具有8核和NVIDIA T4 GPU的计算机上的AI平台上. 在上述配置下的AI Platform上运行模型时,仅发送一个图像仅需不到一秒钟的时间.如果我开始发送 ..