machine-learning相关内容
我在Resnet50上使用转移学习.我从Keras提供的预训练模型(“图像网络")中创建了一个新模型. 训练完新模型后,我将其保存如下: # Save the Siamese Network architecture siamese_model_json = siamese_network.to_json() with open("saved_model/siamese_network
..
我正在使用Keras进行多类分类问题.我将EarlyStopping(monitor='val_loss', patience=4)用作学习的停止标准,也就是说,如果4个纪元的验证损失没有减少,则训练停止.最好使用val_acc作为停止条件或val_loss?因为我看到val_loss增加了,但是val_acc也增加了.考虑以下第8和第13阶段的输出. Epoch 1/200 240703/
..
TL; DR:如何将每个实例2个标签的2D二进制张量拆分为每个实例仅1个标签的2个张量,如下图所示: 作为自定义损失函数的一部分,我试图将每个实例2个标签的多标签y张量拆分为每个实例1个标签的2个y张量. 当我在1D y张量上执行此代码时,此代码非常有用: y_true = tf.constant([1., 0., 0., 0., 1., 0., 0., 0., 0.]) label_
..
这是我今天早些时候发布的重复问题,在另一个问题中,我使用的是Keras的旧版本.我已经升级到Keras 2.0.0,但仍然遇到很多错误,这些错误是我自己无法解决的,因此我将问题逐字地重新发布. 我试图了解如何使用keras进行供应链预测,并且不断收到我无法在其他地方找到帮助的错误.我曾尝试做类似的教程.太阳黑子预测教程,污染多变量教程等,但我仍然不了解input_shape参数的工作方式或如
..
im尝试通过以下方式加载mnist数据集: import keras from keras.datasets import mnist (x_train,y_train),(x_test,y_test)=mnist.load_data() 但是我得到这个错误: Traceback (most recent call last): File "", line 1
..
我正在将Python与Keras和ImageDataGenerator结合使用,以从目录生成图像.我大约有20堂课,我想以某种方式统一它们.例如,类别1-4是x,而类别5-8是y. 可以在flow_from_directory中做到这一点吗?还是我必须根据统一类的需要对目录进行不同的拆分(例如,将目录1-4合并到dir x)? 解决方案 我认为没有内置的方法.但是,一种替代方法是将生成器包
..
我尝试使用Keras构建3层RNN.部分代码在这里: model = Sequential() model.add(Embedding(input_dim = 91, output_dim = 128, input_length =max_length)) model.add(GRUCell(units = self.neurons, dropout = self.d
..
这是我要运行的代码: y = Df[['label']] y_train = np.column_stack((y_train['label'])) y_test = np.column_stack((y_test['label'])) data_dim = 18 timesteps = 1 num_classes = 2 model = Sequential() model.ad
..
我正在尝试在Keras中实现条件批处理规范化.我假设必须创建一个自定义图层,因此,我从标准化来自Keras团队的源代码. 这个想法: 我将有3个条件,因此,我将需要3个不同的beta和gamma参数进行初始化.然后,我只是在需要的地方加入了条件语句.请注意,我的条件在每次迭代后都会随机更改,并尝试根据3个全局Keras变量c1,c2和c3设置条件. 这是我当前拥有的代码.由于条件语句,
..
在尝试训练GAN生成图像时,我遇到了一个无法解释的问题. 训练发电机时,train_on_batch返回的损耗仅经过2或3次迭代即可直接降至零.经过调查,我意识到train_on_batch方法的一些奇怪行为: 当我检查以下内容时: noise = np.random.uniform(-1.0, 1.0, size=[batch_size, gen_noise_length])
..
我在Keras中出错,找不到解决方案.我已经搜索了整个互联网,但仍然没有答案^^ 这是我的代码. model = Sequential() model.add(LSTM(32, return_sequences=True, input_shape=X.values.shape)) model.add(LSTM(32, return_sequences=True)) model.add(LST
..
我遵循了一个教程,以学习如何使用python创建简单的神经网络.下面是代码: def image_to_feature_vector(image, size=(32,32)): return cv2.resize(image, size).flatten() ap = argparse.ArgumentParser() ap.add_argument("-d", "--datase
..
我知道keras中的model.fit返回一个callbacks.History对象,我们可以从中获取损失和其他指标,如下所示. ... train_history = model.fit(X_train, Y_train, batch_size=batch_size, nb_epoch=nb_epoch, ve
..
我有一个二进制分类问题.我使用以下keras模型进行分类. input1 = Input(shape=(25,6)) x1 = LSTM(200)(input1) input2 = Input(shape=(24,6)) x2 = LSTM(200)(input2) input3 = Input(shape=(21,6)) x3 = LSTM(200)(input3) input4 = In
..
我正在使用KERAS处理多标签分类问题. 当我执行这样的代码时,出现以下错误: ValueError:检查目标时出错:期望activation_19具有2个维,但数组的形状为(32,6,6) 这是因为我的标签字典中的列表充满了"0"和"1",这与我最近了解到的return语句中的keras.utils.to_categorical不匹配. softmax也不能处理多个"1". 我
..
我有一个玩具玩具数据集,其中包含3个向量,形式为 [[0, 0, 2], [1, 0, 3], [2, 0, 4], [3, 0, 2], [4, 0, 3], [5, 0, 4] ... [10001, 0, 4]] x总是上升1,y总是0,z重复2、3、4.我想在给定起始序列的情况下预测序列中的下一个3向量.我使用的窗口大小为32,但也尝试了256次,但结果相同. 在将其发送
..
尝试使用CIFAR10上的Keras示例后,我决定尝试更大的东西:小型Imagenet 数据集.这是ImageNet数据集的子集,具有200个类别(而不是1000个类别),并且100K图像降级为64x64. 我从文件vgg_like_convnet.py 此处中获得了类似于VGG的模型.不幸的是,事情变得很像此处,只是这次改变了学习率或交换了TH对于TF没有帮助.都不更改优化器(请参见下面的
..
我的Keras模型设计为采用两个输入时间序列,将它们连接起来,通过LSTM进行输入,然后在下一个时间步进行多标签预测. 有50个训练样本,每个样本有24个时间步长,每个样本有5625个标签. 共有12个验证样本,每个样本有24个时间步长,每个样本有5625个标签. 当我尝试验证模型时,我得到average_precision_score的"nan".为什么? 我在下面准备了
..
下面是我的代码: model = Sequential([ Dense(32, input_shape=(32,), activation = 'relu'), Dense(100, activation='relu'), Dense(65, input_shape=(65,), activation='softmax') ]) model.summary() mo
..
我正在使用TensorFlow后端在Keras上测试简单网络,但在使用S型激活功能时遇到了问题 对于前5到10个时期,网络没有学习,然后一切正常. 我尝试使用初始化程序和正则化程序,但这只会使情况变得更糟. 我使用这样的网络: import numpy as np import keras from numpy import expand_dims from keras.prep
..