machine-learning相关内容
我对Keras示例 pretrained_word_embeddings 有疑问加深对它如何工作的了解. 在这种模型中使用dropout层是否合理? 最后的MaxPooling1D层每次都必须覆盖所有输出形状吗?在原始模型中,最后一个转换层的输出为35,我们将maxpool设置为相同的35值. 我是否可以说增加值128(内核数)会提高准确性? 放置额外的conv层以提高准确
..
我试图在Keras中使用LSTM,但是即使在第一个时期之后,准确性似乎仍然过高(90%),而且我担心训练不正确,我从这篇文章中得到了一些建议: https://machinelearningmastery.com/text-一代lstm-recurrent-neural-networks-python-keras/ 这是我的代码: import numpy from keras.
..
我有一个keras模型,该模型可以保存每个时期的权重,如何制作一个文件 这是保存模式的行 我有50个历元,我将得到50个权重,我只希望将1个权重保存在一个文件中 > model.save_weights('checkpoint_epoch_{}.hdf5'.format(k)) 不知道我该怎么做才能将其保存在一个文件中,因为我以后必须将权重转换为张量流模型 所需
..
我目前正试图找到一种方法来检索给定层的“权重"被忽略(特别是当我在测试阶段使用“训练"标志来使用辍学时). 有没有找到它的简单方法,还是我有义务创建一个自定义的辍学图层? 解决方案 没有简单的方法. Keras的tensorflow后端简单地调用tf.nn.dropout,它通过生成其输入大小的随机矩阵来工作,并且如果随机矩阵中的对应值小于阈值,则将输入中的值设置为零. 这是关键步骤
..
接收 IndexError:索引3超出了尺寸1为3的轴1的边界 尝试在输出向量上使用Keras to_categorical创建单点编码时. Y.shape = (178,1).请帮助(: import keras from keras.models import Sequential from keras.layers import Dense import numpy as
..
我希望我的神经网络将负值转换为正值.从理论上讲,这可以使用ReLU函数和1个节点来完成,输入输入权重为-1(因此,负输入乘以-1 =正输入. 它只会继续输出0.下面的代码.我使用-1作为输入值,以查看它是否至少可以在单个输入上学习. 我尝试添加更多的图层,但无济于事请参见编辑,如果我添加更多的内容,则DIT帮助 train_input = np.asarray([[-1]]*10
..
我需要一些帮助,以了解在Keras中拟合模型时如何计算准确性. 这是训练模型的示例历史记录: Train on 340 samples, validate on 60 samples Epoch 1/100 340/340 [==============================] - 5s 13ms/step - loss: 0.8081 - acc: 0.7559 - val_lo
..
我正在尝试解决签名识别问题.我使用GPDS数据库,合并了正版和伪造签名的所有组合,从而产生了200万个200x200像素图像的输入. 我使用Keras创建了一个基本的CNN,由于硬件的限制,Im仅使用了大约5000个输入和最多10个时期进行训练.我的问题是,当我开始训练模型(model.fit命令)时,我的准确度大约在50%左右,这是我的数据集的余量,而当纪元结束时,准确度恰好是50%.当我
..
我将如何配置Keras使其停止训练,直到收敛或损失为0为止?我本来想过拟合的.我不想设置时期数.我只是想让它在收敛时停止. 解决方案 使用 EarlyStopping 回调.您可以自由选择要观察的损失/指标以及何时停止. 通常,您会看到“验证损失"(val_loss),因为这是最重要的变量,它表明您的模型仍在学习概括. 但是,由于您说过想要过度拟合,因此您可以查看“训练损失"(
..
我正在尝试从通过对抗性学习缓解不必要的偏见 模型架构是 1)输入层 2)密集的定长层 3)自定义渐变项目层 4a)任务1层 4b)任务2层(对抗性任务) 我想使用自定义图层(3)处理任务1和任务2的渐变.目前,我计划在自定义图层的调用中添加类似的内容 @tf.RegisterGradient('blah') def proj_gradients(op, grad):
..
我所做的是: from keras.applications.vgg16 import VGG16 from keras.layers import * from keras.models import Model import numpy as np vgg_model = VGG16(weights='imagenet', include_top=False, input_shape
..
我试图通过调用Keras模型的predict_proba()生成班级成绩,但似乎该功能不存在!是否因为我在Google中看到了一些示例而弃用了?我正在使用Keras 2.2.2. 解决方案 predict_proba()和predict_classes()方法
..
代码: import numpy as np import pandas as pd import os from tqdm import tqdm # Fix seeds from numpy.random import seed seed(639) from tensorflow import set_random_seed set_random_seed(5944) # Impo
..
我正在尝试使用 bvlc_alexnet.npy : #load the weight data weights_dic = numpy.load('bvlc_alexnet.npy', encoding='bytes').item() conv1W = weights_dic["conv1"][0] # (11, 11, 3, 96) con
..
我是机器学习的新手,所以如果这个问题经常出现,我会提前道歉,因为我无法找到令人满意的答案. 作为教学活动,我一直在尝试训练ANN以预测正弦波.我的问题是,尽管我的神经网络准确地训练了正弦波的形状,但在验证集和较大的输入中却没有这样做.因此,我首先将输入和输出作为 x = np.arange(800).reshape(-1,1) / 50 y = np.sin(x)/2 其余代码按
..
因此,我正在使用ModelCheckpoint回调保存我正在训练的模型的最佳时期.它可以保存,没有错误,但是当我尝试加载它时,出现错误: 2019-07-27 22:58:04.713951: W tensorflow/core/util/tensor_slice_reader.cc:95] Could not open C:\Users\Riley\PycharmProjects\myNN
..
我知道如何在每个时期后保存模型: savemodel = ModelCheckpoint(filepath='models/model_{epoch:02d}-{loss:.2f}.h5') model.fit(X, Y, batch_size=4, epochs=32, verbose=1, callbacks=[savemodel]) 如何具有自定义的回调函数来记录某些信息:
..
我收到以下错误: ValueError: Error when checking model input: the list of Numpy arrays that you are passing to your model is not the size the model expected. Expected to see 6 arrays but instead got the fo
..
我无法为1D输入向量构建CNN. 输入值示例: df_x.iloc[300] Out[33]: 0 0.571429 1 1.000000 2 0.971429 3 0.800000 4 1.000000 5 0.142857 6 0.657143 7 0.857143 8 0.971429 9 0.000
..
我使用Keras Functional API编写了这个小模型,以发现两个人之间对话的相似性.我正在使用Gensim的Doc2Vec嵌入将文本数据转换为向量(vocab大小:4117).我的数据平均分为56个阳性病例和64个阴性病例. (是的,我知道数据集很小-但这就是我目前所拥有的全部). def euclidean_distance(vects): x, y = vects
..