keras-2相关内容
我正在寻找一种适当或最佳的方法来在使用 Keras 创建的神经网络中获得可变重要性.我目前的做法是,假设第一层中更重要的变量将具有更高的权重,我只取第一层中变量的权重(而不是偏差).还有其他/更好的方法吗? 解决方案 因为所有的东西都会沿着网络混杂在一起,所以仅靠第一层并不能告诉你每个变量的重要性.下面的层也可以增加或减少它们的重要性,甚至可以使一个变量影响另一个变量的重要性.第一层中的每
..
我正在尝试冻结免费训练的 VGG16 层(下面的“conv_base")并在它们之上添加新层以进行特征提取.我希望从 'conv_base' before(ret1)/after(ret2) 模型拟合得到相同的预测结果,但事实并非如此.这是检查体重冻结的错误方法吗? 加载 VGG16 并设置为无法训练 conv_base = applications.VGG16(weights='imag
..
我想监视例如.在 Keras 的进度条和 Tensorboard 中训练期间的学习率.我认为必须有一种方法可以指定记录哪些变量,但 Keras 网站 上没有立即澄清此问题. 我想这与创建自定义 Callback 函数有关,但是,应该可以修改已经存在的进度条回调,不是吗? 解决方案 可以通过自定义指标来实现.以学习率为例: def get_lr_metric(优化器):def lr(
..
似乎已经有几个线程/问题,但在我看来这并没有解决: 如何在 keras 中使用 tensorflow 度量函数模型? https://github.com/fchollet/keras/issues/6050 https://github.com/fchollet/keras/issues/3230 人们似乎在变量初始化或指标为 0 方面遇到问题. 我需要计算不同的细
..
我正在尝试在预训练的 TF 模型 EfficientNetB0 中用 relu 激活替换 swish 激活.EfficientNetB0 在 Conv2D 和 Activation 层中使用 swish 激活.这个 SO post 与我正在寻找的非常相似.我还找到了 一个答案,它适用于没有跳过连接的模型.代码如下: 将 numpy 导入为 np将张量流导入为 tf从 tensorflow.ker
..
我正在使用Keras构建网络.在此过程中,我需要一个接受LSTM输入的层,什么也不做,只是输出与输入完全相同.即,如果LSTM的每个输入记录都像[[A_t1,A_t2,A_t3,A_t4,A_t5,A_t6]],那么我正在寻找一层: model.add(SomeIdentityLayer(x)) SomeIdentityLayer(x)将[[A_t1, A_t2, A_t3, A_t4,
..
我正在将Keras的EarlyStopping用于我的深度学习项目. 此处文档提到了恢复最佳权重的非常有用的想法.但是不知何故我还不能使用它.我正在使用通过Anaconda安装的Keras 2.2.2/TF 1.10. 调用很简单,如下所示.有什么问题吗? es = EarlyStopping(monitor='val_acc', min_delta=1e-4, patience=patie
..
我一直在做我的项目深度学习语言检测,这是一个与这些层建立联系以从16种编程语言中进行识别: 这是产生网络的代码: # Setting up the model graph_in = Input(shape=(sequence_length, number_of_quantised_characters)) convs = [] for i in range(0, len(filter_
..
在一些特征提取实验中,我注意到'model.pop()'功能无法按预期工作.对于像vgg16这样的预训练模型,在使用'model.pop()'之后,model.summary()显示该层已被删除(预期有4096个特征),但是在通过新模型传递图像时,结果相同数量(1000个)作为原始模型.不管删除了多少层(包括一个完全空的模型),它都会生成相同的输出.寻找有关可能出问题的指南. #Passin
..
我试图用Keras实现加权二进制交叉熵,但是我不确定代码是否正确.培训输出似乎有些混乱.经过几个时期后,我得到的准确度约为0.15.我认为那太少了(即使是随机猜测). 输出中通常有大约11%的1和89%的零,因此权重分别为w_zero = 0.89和w_one = 0.11. 我的代码: def create_weighted_binary_crossentropy(zero_w
..
我的问题很简单,传递给model.fit的验证数据是用于的顺序模型吗? 并且,这是否会影响模型的训练方式(例如,通常使用验证集来选择模型中的超参数,但我认为这不会在这里发生)? 我说的是可以像这样传递的验证集: # Create model model = Sequential() # Add layers model.add(...) # Train model (use 1
..
我正在做一些与图像字幕相关的任务,并且已经像这样加载了初始模型的权重 model = InceptionV3(weights='imagenet') 但是我收到这样的错误: AttributeError: module 'tensorflow' has no attribute 'get_default_graph' 我该怎么办?请帮忙. 这是上面代码的完整输出. 1.
..
很简单,我的问题是当我在Keras代码中使用 padding ='same'时,图像尺寸与maxpool层后输入的图像尺寸保持不变。我正在浏览Keras博客:在Keras中构建自动编码器。我正在构建卷积自动编码器。自动编码器代码如下: input_layer = Input(shape =(28,28,1)) x = Conv2D(16,(3,3),激活='relu',padding ='
..
作为对该问题的后续: 在keras中将输入与常量向量连接起来 我正在尝试使用建议的解决方案: constant=K.variable(np.ones((1,10, 5))) constant = K.repeat_elements(constant,rep=batch_size,axis=0) 并出现以下错误: NameError: name 'batch_size'
..
我想监视例如.在进度栏中和Tensorboard中在Keras中进行培训期间的学习率.我认为必须有一种方法来指定记录哪些变量,但是在Keras 网站上没有对此问题的即时澄清. 我想这与创建自定义 Callback 函数有关,但是,应该可以对其进行修改已经存在的进度条回调,不是吗? 解决方案 可以通过自定义指标来实现.以学习率为例: def get_lr_metric(optim
..
这是具有标准损失函数的模型. target = Input(shape=(1, ), dtype='int32') w_inputs = Input(shape=(1, ), dtype='int32') w_emb = Embedding(V, dim, embeddings_initializer='glorot_uniform',name='word_emb')(w_inputs) w
..
来自尼克博客很明显,在CNN模型的退出层中,我们基于bernoulli删除了一些节点.但是如何进行验证,即如何检查未选择哪个节点.在DropConnect中,我们保留了一些权重,因此我认为可以借助model.get_weights()进行验证,但是对于辍学层来说,该如何进行验证. model = Sequential() model.add(Conv2D(2, kernel_size=(3,
..
我正在尝试将用Keras 1编写的V-net代码转换为Keras 2. class Deconv3D(Layer): def __init__(self, nb_filter, kernel_dims, output_shape, strides): assert K.backend() == 'tensorflow' self.nb_filter = n
..
当Keras 2.x删除某些指标时,变更日志说它这样做是因为它们是“基于批处理"的,因此并不总是准确的.这是什么意思?张量流中包含的相应指标是否存在相同的缺点?例如:精度和召回率指标. 解决方案 让我们以精度为例. 已删除的无状态版本,如: /p> def precision(y_true, y_pred): """Precision metric. Onl
..
我希望能够将多个图层放在一起,但是在指定输入之前,如下所示: # conv is just a layer, no application conv = Conv2D(64, (3,3), activation='relu', padding='same', name='conv') # this doesn't work: bn = BatchNormalization()(conv)
..