tensorflow相关内容
我想打印LSTM层的状态值。 class CustomCallback(keras.callbacks.Callback): def on_epoch_end(self, epoch, logs=None): encoder_outputs, state_h, state_c = self.model.layers[1].output print(sta
..
我正在努力按照Better performance with the tf.data API指导方针提高我的模型培训成绩。然而,我观察到,使用.cache()的性能与不使用.cache()的相同设置几乎相同,甚至更差。 datafile_list = load_my_files() RAW_BYTES = 403*4 BATCH_SIZE = 32 raw_dataset = tf.dat
..
我正在尝试使用本地二进制数据训练网络以执行regression inference。 每个本地二进制数据的布局如下: 并且整个数据由几个具有上述布局的*.bin文件组成。每个文件具有数量可变的403*4字节的序列。我能够使用以下代码读取其中一个文件: import tensorflow as tf RAW_N = 2 + 20*20 + 1 def convert_binar
..
我是TensorFlow的新手,我在数据集方面遇到了问题。我在Windows 10上工作,TensorFlow版本是2.6.0,与CUDA一起使用。 我有两个NumPy数组,分别是X_TRAIN和X_TEST(已经拆分)。列车为5 GB,测试为1.5 GB。 这些形状是: X_TRAIN:(259018,30,30,3),<;类‘numpy.ndarray’>; Y_TRAIN
..
以下是重现该错误的简单代码: import os os.environ["CUDA_VISIBLE_DEVICES"]="-1" import numpy as np from keras.models import Sequential from keras.layers import Conv1D, Flatten, Dense import tensorflow as tf mod
..
我有一个Tensor形状(60, 128, 30000)。我想获取30000维度(axis=2)的argmax的值。 以下代码是一个示例: tensor = tf.random.uniform((60, 128, 30000)) # shape (60, 128, 30000) argmax = tf.argmax(tensor, axis=2) # shape (60, 128) -->
..
我以前有一个导出的RetinanNet模型(最初来自对象检测动物园),它已经使用TensorFlow对象检测API(TensorFlow 2.4.1版)在自定义数据集上进行了微调。下面是导出模型的文件夹的外观。 对模型运行评估时(如下所示),MAP@0.5IOU为0.5。 python model_main_tf2.py --model_dir=exported-models/reti
..
在注意到我在培训期间不能(再)这样做后,我编写了一个单元测试来保护模型。 @pytest.mark.usefixtures("maybe_run_functions_eagerly") def test_save_model(speech_model: Tuple[TransducerBase, SpeechFeaturesConfig]): model, speech_featur
..
我希望在TensorFlow 2.0中编写一个函数,然后在每次训练迭代之前打乱数据及其目标标签。 假设我有两个无用的数据集,X和Y,它们表示用于分类的数据和标签。如何同时对它们进行置乱? 使用sklearn非常简单: from sklearn.utils import shuffle X, y = shuffle(X, y) 如何在TensorFlow 2.0中执行相同的操作?我
..
我有以下代码: import tensorflow as tf a = tf.constant(5) b = tf.constant(2) c = tf.constant(3) d = tf.multiply(a,b) e = tf.add(b,c) f = tf.subtract(d,e) with tf.Session() as sess: #changes should be mad
..
我是特遣部队和凯拉斯的新手。我已经使用以下代码对模型进行了培训和保存 from tensorflow.keras.preprocessing.image import ImageDataGenerator import tensorflow as tf from tensorflow.python.keras.optimizer_v2.rmsprop import RMSprop trai
..
系统信息: 巨蟒:3.6.9 TensorFlow:PIP提供的2.2.0 CPU包 问题: 我从tf-Hub获取https://tfhub.dev/google/imagenet/resnet_v2_50/classification/4?tf-hub-format=compressed,然后将其解压缩到新目录中。 wget https://storage.googleapis
..
我正在尝试恢复检查点并预测不同的句子NMT Attention Model。在恢复检查点和预测时,我收到了胡言乱语的结果,并显示以下警告: Unresolved object in checkpoint (root).optimizer.iter: attributes { name: "VARIABLE_VALUE" full_name: "Adam/iter" chec
..
实际上,我的问题很简单。我想在TensorFlow Lite模型中使用我自己的数据。因此,我编写了以下代码行: root_path = r"C:Users90531Desktopdataset" image_path = os.path.join(os.path.dirname(root_path), '1602854451425') data = DataLoader.from_fol
..
假设我加载了INSITION,并且我需要在分类之前提取最终的描述符。 因此,给出如下的简单代码: cnn = InceptionV3(weights='imagenet', include_top='False', pooling='avg') cnn.predict(x, batch_size=32, verbose=0) 如何在
..
我正尝试在for循环中多次运行model.predict(),并计算对同一图像执行该操作所需的时间。这些数据将用于平均运行预测所需的时间。 如果我在单独的脚本中运行预测,在我的MacBook上它将在大约300ms秒内运行。如果我随后在for循环中迭代地运行它,则第一次迭代所用的时间将从300ms左右开始,然后在其余迭代中下降到80ms。 是否因为第一个预测保留在内存中,而Kera正在幕
..
我正在使用sklearn的波士顿住房数据集(506x13矩阵)进行多元线性回归。我计划使用所有数据对其进行训练,然后“插入”一个随机数据(如boston_dataset.data[39]),然后查看损失情况。但当我打印结果时,得到的只有NaN。这是我的代码。 import tensorflow as tf import numpy as np import matplotlib.pyplot
..
我有一个编码器-解码器模型,可以做出很好的预测,但我正在努力保存层的隐藏状态,以便可以重用该模型。 下面的文本描述了我训练、测试、保存和加载模型所采取的每个步骤。 导入 import tensorflow as tf from tensorflow.keras.layers import LSTM, Input, TimeDistributed, Dense, Embedding
..
我已经通过将数据集拆分为训练和测试来训练我的股价预测模型。 我还通过比较有效数据和预测数据对预测进行了测试,模型运行良好。 但我想预测实际未来值。 我需要在下面的代码中更改哪些内容? 如何预测到实际未来的特定日期? 代码(在Jupyter笔记本中): (要运行代码,请在您拥有的类似CSV文件中试用,或使用命令pip install nsepy安装nsepy python库)
..
下面的网络代码应该是您经典的简单LSTM语言模型,稍后将开始输出NaN丢失.在我的训练集上,这需要几个小时,而且我不能在较小的数据集上轻松地复制它。但这在严肃的训练中总是会发生的。 稀疏软最大值与交叉熵在数值上应该是稳定的,因此它不可能是原因.但除此之外,我没有在图中看到任何其他可能导致问题的节点。可能是什么问题? class MyLM(): def __init__(self,
..