keras相关内容
我使用的是TensorFlow v2中定义为子模块的keras。我正在使用fit_generator()方法训练我的模型。我想每10个纪元保存一次我的模型。我如何实现这一点? 在Kera中(不作为Tf的子模),我可以给出ModelCheckpoint(model_savepath,period=10)。但在TFv2中,他们将其更改为ModelCheckpoint(model_savepath
..
假设我加载了INSITION,并且我需要在分类之前提取最终的描述符。 因此,给出如下的简单代码: cnn = InceptionV3(weights='imagenet', include_top='False', pooling='avg') cnn.predict(x, batch_size=32, verbose=0) 如何在
..
我正尝试在for循环中多次运行model.predict(),并计算对同一图像执行该操作所需的时间。这些数据将用于平均运行预测所需的时间。 如果我在单独的脚本中运行预测,在我的MacBook上它将在大约300ms秒内运行。如果我随后在for循环中迭代地运行它,则第一次迭代所用的时间将从300ms左右开始,然后在其余迭代中下降到80ms。 是否因为第一个预测保留在内存中,而Kera正在幕
..
我从事Keras和LSTM已经有一段时间了,但仍然相当新。 我遇到一个问题,每次使用keras LSTM进行训练和预测时,我都需要重新启动Jupyter Notebook。 当我需要使用相同的LSTM模型设置使用不同的数据集循环多个预测时,这会出现问题。 另一种方法是逐个数据集训练和预测数据集,每次预测完成后都重新启动并运行,这将是一个非常乏味的过程。 例如: for
..
我有一个编码器-解码器模型,可以做出很好的预测,但我正在努力保存层的隐藏状态,以便可以重用该模型。 下面的文本描述了我训练、测试、保存和加载模型所采取的每个步骤。 导入 import tensorflow as tf from tensorflow.keras.layers import LSTM, Input, TimeDistributed, Dense, Embedding
..
我有一个名为charMatrixList的矩阵列表,长度为40744。我将此列表转换为numpy数组,形状变为(40744,32,30)。此数字数组作为输入传递给神经网络。 当作为输入传递到LSTM层时,我收到的错误与Conv2D层输出的形状有关。 from keras.models import Sequential from keras.layers import Embeddi
..
我已经通过将数据集拆分为训练和测试来训练我的股价预测模型。 我还通过比较有效数据和预测数据对预测进行了测试,模型运行良好。 但我想预测实际未来值。 我需要在下面的代码中更改哪些内容? 如何预测到实际未来的特定日期? 代码(在Jupyter笔记本中): (要运行代码,请在您拥有的类似CSV文件中试用,或使用命令pip install nsepy安装nsepy python库)
..
在用于建模IMDB序列数据(https://github.com/fchollet/keras/blob/master/examples/imdb_lstm.py)的LSTM上的KERAS示例中,在输入到LSTM层之前有一个嵌入层: model.add(Embedding(max_features,128)) #max_features=20000 model.add(LSTM(128))
..
我已经在Google CoLab中使用GPU调整了这段代码,以创建一个多层LSTM。它用于时间序列预测。 from keras.models import Sequential from keras.layers import Dense from keras.layers import LSTM import tensorflow as tf from tensorflow.keras.m
..
给定以下代码 encoder_inputs = Input(shape=(16, 70)) encoder = LSTM(latent_dim, return_state=True) encoder_outputs, state_h, state_c = encoder(encoder_inputs) # We discard `encoder_outputs` and only keep
..
我想转换此千层面代码: et = {} net['input'] = lasagne.layers.InputLayer((100, 1, 24, 113)) net['conv1/5x1'] = lasagne.layers.Conv2DLayer(net['input'], 64, (5, 1)) net['shuff'] = lasagne.layers.DimshuffleLayer
..
我正在尝试使用Kera构建有状态LSTM,我不知道如何在LSTM运行之前添加嵌入层。问题似乎出在stateful标志上。如果我的网络不是有状态的,那么添加嵌入层非常简单,而且可以正常工作。 在没有嵌入层的情况下工作的有状态LSTM目前如下所示: model = Sequential() model.add(LSTM(EMBEDDING_DIM, batch
..
这只是设置相同内容的不同方式,还是它们实际上有不同的含义?这与网络配置有关吗? 在一个简单的示例中,我看不到以下各项之间的任何区别: model = Sequential() model.add(LSTM(1, batch_input_shape=(None,5,1), return_sequences=True)) model.add(LSTM(1, return_sequences
..
我用LSTM开发了一个时间序列模型。我不能用它来预测未来几天的股价。我想用它来预测明年的股票价格,然后画出来。如何用它来预测未来(明年)的股价? df=pd.read_csv('foolad.csv') df=df.set_index(pd.DatetimeIndex(df['Date'].values)) data=df.filter(['Close']) dataset=data.va
..
有几个在线教程可以从keras_vggface导入VGGFace模型,如下所示: from keras_vggface.vggface import VGGFace 但是,我收到以下错误: ModuleNotFoundError: No module named 'keras.engine.topology' 此问题发生在我的本地计算机上,但在使用keras_vggface安装
..
我使用CoLab Pro已有几天了。我试图在CoLab Pro中使用TPU运行时来训练深度学习模型。但Runtime在12小时的训练后自动断开。我已经配置了70个纪元用于训练,它在43-52个纪元左右停止。我已经使用Kera/TensorFlow来开发我的模型。在过去的三天里,我一直在训练同样的模型,但是我无法完成训练过程。令人沮丧的是,即使选择了CoLab Pro,我们也无法对模型进行全面培训。
..
我正在尝试使用Google Colab TPU上的KERAS训练序列到序列模型的机器翻译。 我有一个可以加载到内存中的数据集,但我必须对其进行预处理才能将其提供给模型。特别是,我需要将目标单词转换为一个热点向量,并且在许多示例中,我无法将整个转换加载到内存中,因此我需要批量处理数据。 我将此函数用作批处理生成器: def generate_batch_bert(X_ids, X_mas
..
我在尝试开始训练我的模型(DCGAN)时遇到了很多问题。它给我显示错误: 'tuple' object has no attribute 'layer' 我读到这可能是因为同时安装了TensorFlow 1.14.0版和KERAS 2.2版或更高版本。 我试图通过将KERAS版本降级到2.1.5来解决此问题,但我仍然遇到同样的问题。 from google.colab import
..
使用例如gensim、word2vec或类似方法训练嵌入向量时,我想知道什么是好的比率,或者嵌入维度与词汇表大小之间是否有更好的比率? 另外,随着更多数据的出现,这种情况会发生怎样的变化? 由于我仍在讨论如何在训练嵌入向量时选择合适的窗口大小? 我之所以问这个问题,是因为我没有用现实生活中的语言词典来训练我的网络,而是这些句子将描述进程和文件以及其他进程之间的关系,等等。 例如,我的文本语
..
我正在对970个样本进行培训,并对243个样本进行验证。 在KERAS中拟合模型以优化val_acc时,批大小和纪元数应该有多大?是否有任何基于数据输入大小的经验法则可供使用? 推荐答案 因为您的数据集非常小(大约1,000个样本),所以使用批大小为32可能是安全的,这是非常标准的。它不会对你的问题产生巨大的影响,除非你在进行数十万或数百万次的观察训练。 回答您有关批次大小和纪
..