用大数据集训练Google Colab TPU上的seq2seq模型-KERAS [英] Training seq2seq model on Google Colab TPU with big dataset - Keras

查看:14
本文介绍了用大数据集训练Google Colab TPU上的seq2seq模型-KERAS的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我正在尝试使用Google Colab TPU上的KERAS训练序列到序列模型的机器翻译。 我有一个可以加载到内存中的数据集,但我必须对其进行预处理才能将其提供给模型。特别是,我需要将目标单词转换为一个热点向量,并且在许多示例中,我无法将整个转换加载到内存中,因此我需要批量处理数据。

我将此函数用作批处理生成器:

def generate_batch_bert(X_ids, X_masks, y, batch_size = 1024):
    ''' Generate a batch of data '''
    while True:
        for j in range(0, len(X_ids), batch_size):
          # batch of encoder and decoder data
          encoder_input_data_ids = X_ids[j:j+batch_size]
          encoder_input_data_masks = X_masks[j:j+batch_size]
          y_decoder = y[j:j+batch_size]
          

          # decoder target and input for teacher forcing
          decoder_input_data = y_decoder[:,:-1]
          decoder_target_seq = y_decoder[:,1:]
          
          # batch of decoder target data
          decoder_target_data = to_categorical(decoder_target_seq, vocab_size_fr)
          # keep only with the right amount of instances for training on TPU
          if encoder_input_data_ids.shape[0] == batch_size:
            yield([encoder_input_data_ids, encoder_input_data_masks, decoder_input_data], decoder_target_data)

问题是每当我尝试运行FIT函数时,如下所示:

model.fit(x=generate_batch_bert(X_train_ids, X_train_masks, y_train, batch_size = batch_size),
                    steps_per_epoch = train_samples//batch_size,
                    epochs=epochs,
                    callbacks = callbacks,
                    validation_data = generate_batch_bert(X_val_ids, X_val_masks, y_val, batch_size = batch_size),
                    validation_steps = val_samples//batch_size)

我收到以下错误:

/usr/local/lib/python3.6/dist-packages/tensorflow/python/framework/tensor_util.py:445 make_tensor_proto
    raise ValueError("None values not supported.")

ValueError: None values not supported.

不确定出了什么问题以及如何解决此问题。

编辑

我尝试在内存中加载较少的数据量,以便向目标单词的一种热编码的转换不会使内核崩溃,并且它实际上可以正常工作。因此,我生成批次的方式显然有问题。

推荐答案

很难判断出问题所在,因为您没有提供模型 也没有任何样本数据。不过,我相当肯定你是 遇到了同样的 TensorFlow bug 我最近被咬了。

解决方法是使用tensorflow.dataAPI,该API非常有效 用TPU更好。如下所示:

from tensorflow.data import Dataset
import tensorflow as tf

def map_fn(X_id, X_mask, y):
    decoder_target_data = tf.one_hot(y[1:], vocab_size_fr)
    return (X_id, X_mask, y[:-1]), decoder_target_data
...
X_ids = Dataset.from_tensor_slices(X_ids)
X_masks = Dataset.from_tensor_slices(X_masks)
y = Dataset.from_tensor_slices(y)
ds = Dataset.zip((X_ids, X_masks, y)).map(map_fn).batch(1024)
model.fit(x = ds, ...)

这篇关于用大数据集训练Google Colab TPU上的seq2seq模型-KERAS的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆