keras相关内容
您将如何在 keras 中为回归问题创建和显示准确度指标,例如在将预测四舍五入到最接近的整数类之后? 虽然对于回归问题,准确度本身并没有按传统方式有效定义,但为了确定数据的有序类/标签,将问题视为回归是合适的.但是,同时计算准确度指标也会很方便,无论是 kappa 还是其他类似的指标.这是要修改的基本 keras 样板代码. from keras.models import Sequent
..
我正在 Keras 中训练一个模型,如下所示: model.fit(Xtrn, ytrn batch_size=16, epochs=50,verbose=1, shuffle=True,回调=[model_checkpoint],validation_data=(Xval, yval)) 拟合输出如下所示: 如 model.fit 所示,我的批次大小为 16,总共有 8000 个训练样
..
感谢您查看我的问题. 例如. 最终输出是两个矩阵 A 和 B 的和,如下所示: output = keras.layers.add([A, B]) 现在,我想建立一个新参数 x 来改变输出. 我想让 newoutput = Ax+B(1-x) 并且 x 是我网络中的可训练参数. 我该怎么办?请帮帮我~非常感谢! 编辑(部分代码): conv1 = Conv
..
Keras dropout 的实现参考这篇论文. 以下摘录自那篇论文: 这个想法是在测试时使用一个单一的神经网络而不会出现 dropout.该网络的权重是经过训练的缩小版本重量.如果在训练期间以概率 p 保留一个单元,则该单元的输出权重在测试时乘以 p 为如图 2 所示. Keras 文档提到 dropout 仅在训练时使用,以下是 Dropout 实现中的行 x = K.
..
这个问题是关于在 Keras 中对多个大文件进行训练的常见问题,这些文件联合起来太大而无法适应 GPU 内存.我使用的是 Keras 1.0.5,我想要一个不需要 1.0.6 的解决方案.fchollet 描述了一种方法这里和这里: # 创建生成器(当前特征 X,当前标签 y)def BatchGenerator(文件):对于文件中的文件:current_data = pickle.load(o
..
我正在研究 seq2seq keras/tensorflow 2.0 模型.每次用户输入内容时,我的模型都会完美地打印响应.但是在每个回复的最后一行,我得到了这个: 你:警告:tensorflow:你的输入数据用完了;中断训练.确保您的数据集或生成器至少可以生成 steps_per_epoch * epochs 个批次(在本例中为 2 个批次).在构建数据集时,您可能需要使用 repeat(
..
我正在构建一个支持复数的神经网络.目前正在研究复杂的激活.根据 Benjio 的一篇论文,这是一篇不错的论文: 其中 b 是要学习的可训练参数.所以我正在构建一个特殊层来执行此激活.我是 Keras 的新手并且已经陷入困境.我在下面创建了这段代码,但它给出了构建函数的错误.我不知道发生了什么,我只是试图复制模板.请帮忙. class modrelu(Layer):def __init__(
..
我有一个在 Keras 和 PyTorch 中实现的小型 CNN 示例.当我打印两个网络的摘要时,可训练参数的总数相同但参数总数和批量标准化的参数数量不匹配. 这是在 Keras 中的 CNN 实现: inputs = Input(shape = (64, 64, 1)).#频道最后:(NHWC)模型 = Conv2D(filters=32, kernel_size=(3, 3), pad
..
我已经在 Keras 中成功训练了一个简单的模型来对图像进行分类: model = Sequential()model.add(Convolution2D(32, 3, 3, border_mode='valid', input_shape=(img_channels, img_rows, img_cols),激活='relu',名称='conv1_1'))model.add(Convoluti
..
因为当你使用自适应优化器时,在线学习不能很好地与 Keras 配合使用(调用 .fit() 时学习率计划会重置),我想看看我是否可以手动设置它.然而,为了做到这一点,我需要找出最后一个时期的学习率. 也就是说,我如何打印每个时期的学习率?我想我可以通过回调来做到这一点,但似乎每次都必须重新计算,我不知道如何对 Adam 进行. 我在另一个帖子中找到了这个,但它只适用于 SGD: cl
..
我正在研究我的硕士项目,它使用 keras 和 tensorflow 后端.我有 intel(r) hd graphics 520,所以我无法使用 tensorflow-gpu.cpu 版本工作正常.有没有什么办法可以将 tensorflow-gpu 与 intel(r) hd graphics 520 一起使用? 解决方案 Tensorflow GPU 支持需要安装 Nvidia Cud
..
我正在使用 Keras 提供的 conv1d 层为序列数据构建预测模型.我就是这样做的 model= Sequential()model.add(Conv1D(60,32, strides=1, activation='relu',padding='causal',input_shape=(None,64,1)))model.add(Conv1D(80,10, strides=1, activa
..
这里是详细说明.我有一个两层的 keras 功能模型,输出 x1 和 x2. x1 = Dense(1,activation='relu')(prev_inp1)x2 = Dense(2,activation='relu')(prev_inp2) 我需要使用这些 x1 和 x2,合并/添加它们并像附加图像中那样提出加权损失函数.将“相同的损失"传播到两个分支中.Alpha 可以灵活地随着迭代而
..
我使用 keras(一个 convnet)构建了一个自定义架构.该网络有 4 个头,每个头输出不同大小的张量.我正在尝试编写一个自定义损失函数作为这 4 个输出的函数.我之前一直在实施自定义损失,但是每个人头的损失不同,或者每个人头的损失都相同.在这种情况下,我需要组合 4 个输出来计算损失. 我已经习惯了: def custom_loss(y_true, y_pred):返回一些东西模型
..
我使用的是 Keras 1.0.我的问题与此相同(如何在 Keras 中实现平均池化层),但似乎没有答案对我来说足够了. 我想实现这个网络: 以下代码不起作用: sequence = Input(shape=(max_sent_len,), dtype='int32')嵌入 = 嵌入(vocab_size,word_embedding_size)(序列)lstm = LSTM(hid
..
run_meta = tf.RunMetadata()输入 codwith tf.Session(graph=tf.Graph()) 作为 sess:K.set_session(sess)使用 tf.device('/cpu:0'):base_model = MobileNet(alpha=1, weights=None, input_tensor=tf.placeholder('float32'
..
我正在使用 Keras 来预测时间序列.作为标准,我使用 20 个时代.我想通过对 20 个 epoch 中的每一个进行预测来检查我的模型是否学习良好. 通过使用 model.predict() 我在所有时期中只得到一个预测(不确定 Keras 如何选择它).我想要所有的预测,或者至少 10 个最好的. 有人知道如何帮助我吗? 解决方案 我觉得这里有点混乱. 一个时期只在
..
我收到以下代码片段的以下错误: 您必须为占位符张量提供一个值'bidirectional_1/keras_learning_phase' 与 dtype bool 如果我添加 dropout 层 model.add(Dropout(dropout)),它会起作用.有谁知道为什么?后端是Tensorflow,Keras 2.0.1 def prep_model1(embedding_l
..
在用于图像二元分类的 CNN 中,输出的形状应该是(图像数量,1)还是(图像数量,2)?具体来说,这是 CNN 中的 2 种最后一层: keras.layers.Dense(2, activation = 'softmax')(previousLayer) 或 keras.layers.Dense(1, activation = 'softmax')(previousLayer) 在第一种
..
我使用 keras.regularizers.l1(0.01) 在 Keras 中对我的神经网络参数使用 L1 正则化以获得稀疏模型.我发现,虽然我的许多系数接近为零,但实际上很少为零. 查看正则化的源代码,这表明 Keras 只是将参数的 L1 范数添加到损失函数中. 这是不正确的,因为参数几乎肯定不会按照 L1 正则化的预期变为零(在浮点误差范围内).当参数为零时,L1 范数是不可
..