tensorflow2.0相关内容
我正在使用TensorFlow v2.7.0,并尝试使用粗糙张量创建一个ML模型。 问题是tf.linalg.diag、tf.matmul和tf.linalg.det不能使用粗糙张量。 我已经找到了一种变通方法,将参差不齐的张量转换为NumPy,并将其转换回参差不齐的张量,但在全局模型中应用该层时不起作用。 以下代码工作正常 数据-lang=“js”数据-隐藏=“假”数据-控制台=“
..
给定具有固定大小的Tensor数组和具有统一形状的条目,我想转到包含相同值的张量,只需将Tensor数组的索引维度作为正则轴。 TensorArray有一个名为&Gathere&的方法,据称应该这样做。事实上,下面的示例是可行的: array = tf.TensorArray(tf.int32, size=3) array.write(0, 10) array.write(1, 20)
..
我有一台安装了conda的ubuntu服务器。我创建了一个名为TF-GPU的虚拟环境,并在其中安装了TensorFlow 2。Ubuntu服务器安装了一块安装了GPU的GeForce GTX显卡。当我在使用TF-GPU环境的jupyter笔记本电脑中运行下面的代码时,它显示0个可用的GPU。安装在我的TF-GPU环境中的模块也如下所示。为什么我的tensorflow 2环境看不到我的GPU?我需要
..
我正在尝试绘制一个连续的图表来评估我的模型。 Tensorboard(v2.4.1)成功绘制了每一步的不同损失。 然而,它只绘制了评估的最后一步,我的评估曲线上只有一个点。 这是我的拉伸板视图: Tensorboard show only the last step's evaluation 我使用以下命令运行tensorboard:tensorboard --logdir=models/
..
我实现了RNN的本地版本和RNN的Colab TPU版本(代码如下)。当我执行Colab TPU版本(如下代码)时,训练速度非常慢,就像我在笔记本电脑的CPU上运行的本地版本一样。 Colab TPU是否支持RNN网络? 我是否遗漏了什么? import tensorflow as tf import os from tensorflow.keras import Sequent
..
全部。我正在尝试在这里获得CTC丢失功能,但它工作不是很好。我一直收到这个错误: 2020-11-04 07:28:53.647946: W ./tensorflow/core/util/ctc/ctc_loss_calculator.h:499] No valid path found. 2020-11-04 07:28:53.647977: W ./tensorflow/core/uti
..
因此,我使用以下链接准备了一个包含USE4的Keras模型: https://tfhub.dev/google/universal-sentence-encoder-large/4 使用TensorFlow 2.3,我将其添加到我的模型中并保存该模型 tf.saved_model.save( model, export_dir= '/directory/model/1', ) 在d
..
我发现,如果我想在TensorFlow 2中使用tf.gradients而不是渐变带,可以通过将代码包装在tf.function修饰函数中来实现。但不知何故,我不能以这种方式计算变量的梯度: import tensorflow as tf a = tf.Variable(initial_value=1.0, dtype=tf.float32) b = 0.01 * a @tf.functi
..
我需要使用来自HuggingFace和TensorFlow的预先训练好的BERT模型('dbmdz/bert-base-italian-xxl-cased')(位于this链接)。 在网站上看到这篇文章后 目前只有与PyTorch-Transformers兼容的权重可用。如果您需要访问TensorFlow检查点,请提出问题! 我提出了这个问题,很快就给了我一个指向包含以下文件的档案的
..
我要转换此Keras数据增强工作流: datagen = ImageDataGenerator( rescale=1./255, rotation_range = 10, horizontal_flip = True, width_shift_range=0.1, height_shift_range=0.1, fill_mode = 'ne
..
在TensorFlow 2.0中,我们看到的主要张量实际上是EagerTensors(更准确地说是tensorflow.python.framework.ops.EagerTensor): x = [[2.]] m = tf.matmul(x, x) type(m) # returns tensorflow.python.framework.ops.EagerTensor 但是,在某些情
..
我正在尝试从层中的节点访问激活值。 l0_out = model.layers[0].output print(l0_out) print(type(l0_out)) Tensor("fc1_1/Relu:0", shape=(None, 10), dtype=float32) 我尝
..
TensorFlow 2.0似乎删除了函数tf.global_Variables()。我的问题是:如何在模型中找到具有给定名称的变量?TensorFlow 2.0是否提供了执行此操作的函数? 目前,我们的培训框架无法访问构建模型的代码。它使用tf.global_Variables()在加载的模型中查找各种变量,以推入和拉出训练数据或结果。TensorFlow 2.0能够支持这种框架吗?
..
我正在尝试执行一些卷积神经网络的超参数调整,该网络是用带有GPU扩展的TensorFlow 2.0编写的。 我的系统设置为: 64位Windows 10 GeForce RTX2070,8 GB TensorFlow 2.0-测试版 CUDA 10.0已正确安装(我希望deviceQuery.exe和band widthTest.exe都通过了) 我的神经网络有75.572
..
当我在TensorFlow的网站上阅读guides时,我发现了两种自定义损失的方法。第一种是定义损失函数,就像: def basic_loss_function(y_true, y_pred): return tf.math.reduce_mean(tf.abs(y_true - y_pred)) 为了简单起见,我们假设批大小也是1,因此y_true和y_pred的形状都是(1,
..
然后,我将基于来自tf-Hub或keras.Applications(我使用相同的卷积核心)的预先训练好的模型来构建模型。所得到的模型文件的大小在Model()或tf.saveModel.save之后大约是10Mb。经过培训后,它的模型大小增加到了30MB! 如果我在培训后保存模型,则再次重新创建该模型,并从训练的模型中加载权重,它将按照预期进行预测,文件大小约为10Mb。 我用于创建
..
我希望在训练迭代中访问训练点,并通过使用训练集中未包括的数据点将软约束合并到我的损失函数中。我将使用this post作为参考。 import numpy as np import keras.backend as K from keras.layers import Dense, Input from keras.models import Model # Some random tra
..
我遇到错误IndexError:列表索引超出范围。 它在另一台计算机上工作正常,但在我将其转移到另一台计算机后,它不再工作。 Python:3.8.5 TensorFlow:2.3.1 回溯显示: tensorflow.python.autograph.impl.api.StagingError: in user code: Load_Model.py:40
..
让我们假设我们正在构建一个基本的CNN,它可以识别猫和狗的图片(二进制分类器)。 这类CNN的例子如下: model = Sequential([ Conv2D(32, (3,3), input_shape=...), Activation('relu'), MaxPooling2D(pool_size=(2,2), Conv2D(32, (3,3), input_s
..
我使用Conda注释安装TensorFlow: conda create -n tf2.6 python=3.9 conda install tensorflow-gpu=2.6 日志告诉我它已成功安装。然后在Python中,当我导入TensorFlow时,它显示无法加载动态库‘libcudart.so.11.0’。从日志中,我发现它在安装TensorFlow时安装了cudatoolki
..