keras相关内容
我的模型由嵌入层和SimpleRNN层组成。我已经用model.predict获得了所有步骤的隐藏状态,并将它们与这些步骤进行了对比。我发现隐藏的状态收敛到零,但我不确定我是否能从中推断出什么。因此,绘制它们相对于模型输入的梯度可能会为我提供一些进一步的见解。我需要一些帮助来获取这些渐变。 我的型号: batch_size = 9600 # batch size can take
..
维度为(3,50)的嵌入层如何接入LSTM? 数组(3,50)被馈送到输入 ,其中存储有三个长度为50的数组的时间步长 我尝试在重塑之前连接它,但它也不起作用。嵌入增加了维度,而LSTM不需要额外的维度。您必须将张量转换为Tf并手动处理张量,这很可怕。 layer_i_inp = Input(shape = (3,50), name = 'item') layer_i_emb
..
RNN在keras中接受具有以下形状的输入 array([[['Xa0', 'Ya0'], ['Xa1', 'Ya1'], ['Xa2', 'Ya2']], [['Xb0', 'Yb0'], ['Xb1', 'Yb1'], ['Xb2', 'Yb2']], [['Xc0', 'Yc0'], ['Xc1', 'Yc1'], ['X
..
我有一台安装了conda的ubuntu服务器。我创建了一个名为TF-GPU的虚拟环境,并在其中安装了TensorFlow 2。Ubuntu服务器安装了一块安装了GPU的GeForce GTX显卡。当我在使用TF-GPU环境的jupyter笔记本电脑中运行下面的代码时,它显示0个可用的GPU。安装在我的TF-GPU环境中的模块也如下所示。为什么我的tensorflow 2环境看不到我的GPU?我需要
..
我没有找到任何要使用的经过预先培训的LSTM模型。 TfLite是否提供了任何经过预先培训的LSTM模型? 我试图创建tflite模型,但在转换时遇到了问题?你能提供准确的脚本来创建tfLite模型吗? TfLite有没有用最新版本创建tfLite LSTM模型的脚本? 这是我创建tfLite模型的脚本。但它不起作用。 import numpy as np import tensorflow
..
我基于GRU训练以下模型,请注意,我将参数stateful=True传递给GRU构建器。 class LearningToSurpriseModel(tf.keras.Model): def __init__(self, vocab_size, embedding_dim, rnn_units): super().__init__(self) self.embedding
..
该模型的第一层是LSTM。 调用Model.Forecast时,假设您传入几个示例: >sam = np.array([ [[.5, .6, .3]], [[.6, .6, .3]], [[.5, .6, .3]] ]) >model.predict(sam) array([[ 0.23589483], [ 0.2327884 ], [ 0.23589483
..
我有一个包含4个图像文件夹的压缩文件。我在Google Colab上遵循的教程使用了类似的Zip文件,但该文件是在线托管的,链接是作为origin参数的值给出的,这是必需的。我将我的Zip文件上传到Google Drive,并可以在Colab中访问它。是否可以使用GET_FILE()加载本地文件? 推荐答案 我最近也遇到了这个问题。在找不到答案后,我不得不戴上旧的思考帽子,解决了它。
..
我已经构建了一个模型来预测客户是企业客户还是私人客户。在对模型进行训练后,我预测了我没有用于训练的1000个数据集的类别。此预测将保存在CSV文件中。 现在我有两种不同的行为: 在程序中拆分样本数据 当我使用train, sample = train_test_split(train, test_size=1000, random_state=seed)创建样本时,预测在训练期间获得相
..
我的培训生成器和有效生成器工作正常,但当我尝试预测时,我得到了某种错误,我认为这是来自测试生成器。 train_datagen = ImageDataGenerator(rotation_range=15, rescale=1./255, shear_range=0
..
我自己有一个深度学习项目的数据集。我把它上传到了Google Drive上,并链接到了Colab的一个页面上。但Colab在一秒钟内只能读取2-3张图片,而我的电脑可以读取数十张。(我使用imread来读取图像。) keras的模型编译过程没有速度问题,但仅在从Google Drive读取图像时存在速度问题。有谁知道解决办法吗?也有人遇到了这个问题,但它仍然没有解决:Google Colab
..
我用TensorFlow(2.4版)+KERAS(3.8.3版)编写了一个简单的CNN。我正在努力优化网络,我想要更多关于它无法预测的信息。我正在尝试添加混淆矩阵,并且我需要为tensorflow.math.conflomination_Matrix()提供测试标签。 我的问题是,我不知道如何从tf.keras.preprocessing.image_dataset_from_directory
..
我有3D CNN网络的输入形状为(150,80,80,16,3)的视频数据。 我得到了形状为(150,7,7,2,512)的conv Layer的输出,表明: 150号序列的数量 7,7高度和宽度 2时间维度 512个功能地图 我想将其提供给LSTM,所以我将输出数据重塑为: model.add(Reshape((1, 7*7*2*512))) model
..
全部。我正在尝试在这里获得CTC丢失功能,但它工作不是很好。我一直收到这个错误: 2020-11-04 07:28:53.647946: W ./tensorflow/core/util/ctc/ctc_loss_calculator.h:499] No valid path found. 2020-11-04 07:28:53.647977: W ./tensorflow/core/uti
..
我需要使用来自HuggingFace和TensorFlow的预先训练好的BERT模型('dbmdz/bert-base-italian-xxl-cased')(位于this链接)。 在网站上看到这篇文章后 目前只有与PyTorch-Transformers兼容的权重可用。如果您需要访问TensorFlow检查点,请提出问题! 我提出了这个问题,很快就给了我一个指向包含以下文件的档案的
..
我要转换此Keras数据增强工作流: datagen = ImageDataGenerator( rescale=1./255, rotation_range = 10, horizontal_flip = True, width_shift_range=0.1, height_shift_range=0.1, fill_mode = 'ne
..
在TensorFlow 2.0中,我们看到的主要张量实际上是EagerTensors(更准确地说是tensorflow.python.framework.ops.EagerTensor): x = [[2.]] m = tf.matmul(x, x) type(m) # returns tensorflow.python.framework.ops.EagerTensor 但是,在某些情
..
我正在尝试从层中的节点访问激活值。 l0_out = model.layers[0].output print(l0_out) print(type(l0_out)) Tensor("fc1_1/Relu:0", shape=(None, 10), dtype=float32) 我尝
..
我正在尝试执行一些卷积神经网络的超参数调整,该网络是用带有GPU扩展的TensorFlow 2.0编写的。 我的系统设置为: 64位Windows 10 GeForce RTX2070,8 GB TensorFlow 2.0-测试版 CUDA 10.0已正确安装(我希望deviceQuery.exe和band widthTest.exe都通过了) 我的神经网络有75.572
..
当我在TensorFlow的网站上阅读guides时,我发现了两种自定义损失的方法。第一种是定义损失函数,就像: def basic_loss_function(y_true, y_pred): return tf.math.reduce_mean(tf.abs(y_true - y_pred)) 为了简单起见,我们假设批大小也是1,因此y_true和y_pred的形状都是(1,
..