machine-learning相关内容

Keras:验证错误是衡量终止标准或验证准确性的好方法吗?

我正在使用Keras进行多类分类问题.我将EarlyStopping(monitor='val_loss', patience=4)用作学习的停止标准,也就是说,如果4个纪元的验证损失没有减少,则训练停止.最好使用val_acc作为停止条件或val_loss?因为我看到val_loss增加了,但是val_acc也增加了.考虑以下第8和第13阶段的输出. Epoch 1/200 240703/ ..
发布时间:2020-04-25 10:54:16 AI人工智能

如何在2D张量的第二维上使用Tensorflows scatter_nd?

TL; DR:如何将每个实例2个标签的2D二进制张量拆分为每个实例仅1个标签的2个张量,如下图所示: 作为自定义损失函数的一部分,我试图将每个实例2个标签的多标签y张量拆分为每个实例1个标签的2个y张量. 当我在1D y张量上执行此代码时,此代码非常有用: y_true = tf.constant([1., 0., 0., 0., 1., 0., 0., 0., 0.]) label_ ..
发布时间:2020-04-25 10:54:14 AI人工智能

Keras LSTM尝试创建模型架构时出现多个错误

这是我今天早些时候发布的重复问题,在另一个问题中,我使用的是Keras的旧版本.我已经升级到Keras 2.0.0,但仍然遇到很多错误,这些错误是我自己无法解决的,因此我将问题逐字地重新发布. 我试图了解如何使用keras进行供应链预测,并且不断收到我无法在其他地方找到帮助的错误.我曾尝试做类似的教程.太阳黑子预测教程,污染多变量教程等,但我仍然不了解input_shape参数的工作方式或如 ..
发布时间:2020-04-25 10:54:11 AI人工智能

keras图像数据生成器.flow_from_directory(directory)统一/合并类

我正在将Python与Keras和ImageDataGenerator结合使用,以从目录生成图像.我大约有20堂课,我想以某种方式统一它们.例如,类别1-4是x,而类别5-8是y. 可以在flow_from_directory中做到这一点吗?还是我必须根据统一类的需要对目录进行不同的拆分(例如,将目录1-4合并到dir x)? 解决方案 我认为没有内置的方法.但是,一种替代方法是将生成器包 ..

Keras中的条件批处理规范化

我正在尝试在Keras中实现条件批处理规范化.我假设必须创建一个自定义图层,因此,我从标准化来自Keras团队的源代码. 这个想法: 我将有3个条件,因此,我将需要3个不同的beta和gamma参数进行初始化.然后,我只是在需要的地方加入了条件语句.请注意,我的条件在每次迭代后都会随机更改,并尝试根据3个全局Keras变量c1,c2和c3设置条件. 这是我当前拥有的代码.由于条件语句, ..
发布时间:2020-04-25 10:52:06 AI人工智能

test_on_batch和train_on_batch的不同损耗值

在尝试训练GAN生成图像时,我遇到了一个无法解释的问题. 训练发电机时,train_on_batch返回的损耗仅经过2或3次迭代即可直接降至零.经过调查,我意识到train_on_batch方法的一些奇怪行为: 当我检查以下内容时: noise = np.random.uniform(-1.0, 1.0, size=[batch_size, gen_noise_length]) ..

如何为KERAS多标签问题提供DataGenerator?

我正在使用KERAS处理多标签分类问题. 当我执行这样的代码时,出现以下错误: ValueError:检查目标时出错:期望activation_19具有2个维,但数组的形状为(32,6,6) 这是因为我的标签字典中的列表充满了"0"和"1",这与我最近了解到的return语句中的keras.utils.to_categorical不匹配. softmax也不能处理多个"1". 我 ..

3矢量序列LSTM不能超过0.5精度

我有一个玩具玩具数据集,其中包含3个向量,形式为 [[0, 0, 2], [1, 0, 3], [2, 0, 4], [3, 0, 2], [4, 0, 3], [5, 0, 4] ... [10001, 0, 4]] x总是上升1,y总是0,z重复2、3、4.我想在给定起始序列的情况下预测序列中的下一个3向量.我使用的窗口大小为32,但也尝试了256次,但结果相同. 在将其发送 ..
发布时间:2020-04-25 10:49:52 AI人工智能

优化过程中卡拉斯卡住了

尝试使用CIFAR10上的Keras示例后,我决定尝试更大的东西:小型Imagenet 数据集.这是ImageNet数据集的子集,具有200个类别(而不是1000个类别),并且100K图像降级为64x64. 我从文件vgg_like_convnet.py 此处中获得了类似于VGG的模型.不幸的是,事情变得很像此处,只是这次改变了学习率或交换了TH对于TF没有帮助.都不更改优化器(请参见下面的 ..

为什么scikit Learn的平均精度得分会返回nan?

我的Keras模型设计为采用两个输入时间序列,将它们连接起来,通过LSTM进行输入,然后在下一个时间步进行多标签预测. 有50个训练样本,每个样本有24个时间步长,每个样本有5625个标签. 共有12个验证样本,每个样本有24个时间步长,每个样本有5625个标签. 当我尝试验证模型时,我得到average_precision_score的"nan".为什么? 我在下面准备了 ..

在Keras上的前几个时期,神经网络并没有学习

我正在使用TensorFlow后端在Keras上测试简单网络,但在使用S型激活功能时遇到了问题 对于前5到10个时期,网络没有学习,然后一切正常. 我尝试使用初始化程序和正则化程序,但这只会使情况变得更糟. 我使用这样的网络: import numpy as np import keras from numpy import expand_dims from keras.prep ..