tensorflow2.x相关内容
我遇到错误IndexError:列表索引超出范围。 它在另一台计算机上工作正常,但在我将其转移到另一台计算机后,它不再工作。 Python:3.8.5 TensorFlow:2.3.1 回溯显示: tensorflow.python.autograph.impl.api.StagingError: in user code: Load_Model.py:40
..
我不确定我是否理解了TensorFlow Kerasmixed precision的概念。我的目标是运行浮点16精度的tf.keras模型,以提高推理速度。这能以混合精度完成吗? 我正在培训我的模型之前设置此策略: from tensorflow.keras.mixed_precision import experimental as mixed_precision policy =
..
我想得到梯度估计的符号表达式。当我看到输出时,很难理解发生了什么。 import tensorflow as tf @tf.function def f_k(input_dat): y = tf.matmul(tf.sin(input_dat[0]), input_dat[1]) grads = tf.gradients([y], input_dat) # grads
..
我正在尝试实施最近的一篇论文.此实现的一部分涉及从 tf 1.14 迁移到 tf 2.1.0.该代码适用于 tf 1.14,但不再有效. 注意:如果我禁用急切执行 tf.compat.v1.disable_eager_execution() 那么代码会按预期工作. 这是解决方案吗?我之前在 TF 2.x 中制作了大量模型,并且从未禁用过 Eager Execution 来实现正常功能.
..
以下示例适用于 2.2;K.function 在 2.3 中发生了显着变化,现在在 Eager 执行中构建一个 Model,所以我们正在传递 Model(inputs=[learning_phase,...]). 我确实有一个解决方法,但它很黑,而且比 K.function 复杂得多;如果没有人可以展示一个简单的方法,我会发布我的. from tensorflow.keras.layers
..
我是 Tensorflow 世界的新手,我正在研究 mnist 数据集分类的简单示例.我想知道除了准确性和损失(并可能显示它们)之外,我如何获得其他指标(例如精度、召回率等).这是我的代码: from __future__ import absolute_import, Division, print_function, unicode_literals将张量流导入为 tf从 tensorflo
..
如上.我尝试了那些无济于事: tf.random.shuffle( (a,b) )tf.random.shuffle( zip(a,b) ) 我曾经连接它们并进行改组,然后取消连接/解包.但是现在我处于 (a) 是 4D 秩张量而 (b) 是 1D 的情况,因此,无法连接. 我还尝试将种子参数提供给 shuffle 方法,以便它重现相同的洗牌,我使用它两次 => 失败.还尝试用随机洗牌的
..
似乎 tf.lookup.experimental.DenseHashTable 不能容纳向量,我找不到如何使用它的示例. 解决方案 您可以在下面找到 Tensorflow 中向量字典的简单实现.也是tf.lookup.experimental.DenseHashTable和tf.TensorArray的用法示例. 如前所述,向量不能保存在tf.lookup.experimental
..
我收到一个错误,IndexError:列表索引超出范围. 它在另一台机器上工作,但在我将它转移到另一台机器后,它不再工作了. Python:3.8.5 张量流:2.3.1 追溯说: tensorflow.python.autograph.impl.api.StagingError:在用户代码中:Load_Model.py:40 detect_fn *图像,形状 = det
..
我关注了网站:https://leimao.github.io/blog/Save-Load-Inference-From-TF2-Frozen-Graph/但是,我仍然不知道如何使用 frozen_func 运行推理(请参阅下面的代码).请告知如何在 TensorFlow 2.2 中使用 pb 文件运行推理.谢谢. 将 tensorflow 导入为 tfdef wrap_frozen_gra
..
我想在 TensorFlow 2.x 中的一个模型中为输入张量的切片分配一些值(我使用的是 2.2,但准备接受 2.1 的解决方案).我正在尝试做的一个非工作模板是: 将tensorflow导入为tf从 tensorflow.keras.models 导入模型类 AddToEven(模型):定义调用(自我,输入):输出 = 输入输出[:, ::2] += 输入[:, ::2]返回输出 当然在构
..
我有一个可以放入主机内存的大型数据集.但是,当我使用 tf.keras 训练模型时,它会产生 GPU 内存不足问题.然后我查看 tf.data.Dataset 并希望使用它的 batch() 方法来批处理训练数据集,以便它可以在 GPU 中执行 model.fit().根据其文档,示例如下: train_dataset = tf.data.Dataset.from_tensor_slices((
..
我正在使用以下命令在我的 ubuntu(联想 110-Ideapad 笔记本电脑)python 中导入 tensorflow- (tfx-test) chandni@mxnet:~/Chandni/TFX$ pythonPython 3.6.9(默认,2019 年 11 月 7 日,10:44:02)[GCC 8.3.0] 在 Linux 上输入“帮助"、“版权"、“信用"或“许可"以获取更多信
..
我想使用最新的 tensorflow 2.0.0a0 在 jupyter 中运行 tensorboard.使用 tensorboard 版本 1.13.1 和 python 3.6. 使用 ...%tensorboard --logdir {logs_base_dir} 我收到错误: UsageError: Line magic function %tensorboard
..
我在一个计算资源共享的环境中工作,即我们有几台服务器机器,每台机器都配备了几个 Nvidia Titan X GPU. 对于中小型模型,Titan X 的 12 GB 通常足以让 2-3 人在同一 GPU 上同时运行训练.如果模型足够小以至于单个模型不能充分利用 GPU 的所有计算单元,那么与运行一个接一个的训练过程相比,这实际上会导致加速.即使在并发访问 GPU 确实会减慢个人训练时间的情
..
我正在尝试理解和调试我的代码.我尝试使用在 GPU 上的 tf2.0/tf.keras 下开发的 CNN 模型进行预测,但得到了那些错误消息.有人可以帮我解决吗? 这是我的环境配置 环境:蟒蛇 3.6.8张量流-GPU 2.0.0-rc0英伟达 418.xCUDA 10.0cuDNN 7.6+** 和日志文件, 2019-09-28 13:10:59.833892: 我tensorfl
..
我正在尝试在 Tensorflow 2.1 中转换 Tensor 的 shape 属性,但出现此错误: AttributeError: 'Tensor' 对象没有属性 'numpy' 我已经检查了 tf.executing early() 的输出是 True, 一点上下文:我从 TFRecords 加载 tf.data.Dataset,然后应用 map.映射函数正在尝试将数据集示例 Te
..
使用Keras与Tensorflow后端,我正在尝试训练LSTM网络,并且在GPU上运行它比在CPU上运行要花费更长的时间. 我正在使用fit_generator函数训练LSTM网络.每个纪元需要CPU〜250秒,而每个纪元需要GPU〜900秒.我的GPU环境中的软件包包括 keras-applications 1.0.8 py_0 anacondakeras-base 2.2.4 py
..
我正在尝试将TensorFlow模型部署到Google AI平台以进行在线预测.我遇到了延迟和吞吐量问题. 该模型在我的计算机上运行不到1秒(仅使用Intel Core I7 4790K CPU)即可生成单个图像.我将其部署到具有8核和NVIDIA T4 GPU的计算机上的AI平台上. 在上述配置下的AI Platform上运行模型时,仅发送一个图像仅需不到一秒钟的时间.如果我开始发送
..
这个问题是关于TensorFlow(和TensorBoard)2.2rc3版本的,但是我在2.1中也遇到了同样的问题. 考虑以下奇怪的代码: from datetime import datetime import tensorflow as tf from tensorflow import keras inputs = keras.layers.Input(shape=(784
..