keras相关内容
嗨,我正在尝试构建一个混合专家神经网络.我在这里找到了一个代码:http://blog.sina.com.cn/s/blog_dc3c53e90102x9xu.html.我的目标是门和专家来自不同的数据,但具有相同的维度. def sliced(x,expert_num):返回 x[:,:,:expert_num]定义减少(x,轴):返回 K.sum(x,axis=axis, keepdims=
..
尝试建立单输出回归模型,但最后一层似乎有问题 inputs = Input(shape=(48, 1))lstm = CuDNNLSTM(256,return_sequences=True)(输入)lstm = Dropout(dropouts[0])(lstm)#aux_input辅助输入=输入(形状=(48, 7))辅助输出 = 时间分布(密集(4))(辅助输入)辅助输出 = 时间分布(密集
..
我正在训练一个小型网络,训练似乎进行得很顺利,val loss 减少,我达到了 80 左右的验证准确率,一旦没有更多改进,它实际上停止了训练(耐心 = 10).它训练了 40 个 epoch.然而,它一直只为每个测试图像预测一个类!我尝试随机初始化 conv 层,我添加了正则化器,我从 Adam 切换到 SGD,我添加了 clipvalue,我添加了 dropouts.我也切换到了 softmax
..
我正在使用 keras MLP 网络对 3-D 词向量进行二元分类 input_shape=(None,24,73).我使用了两个密集层 dense_1 和 dense_2.在 dense_2 处,我收到一个我无法解决的错误. 这是我的模型摘要. 层(类型)输出形状参数#============================================================
..
我正在研究使用 tensorflow 训练深度神经网络.我知道如何训练模型.我的问题是我必须在具有不同数据集的 2 台不同计算机上训练相同的模型.然后保存模型权重.后来我必须以某种方式合并 2 个模型权重文件.我不知道如何合并它们.是否有执行此操作的函数,或者是否应该对权重进行平均? 对这个问题的任何帮助都是有用的 提前致谢 解决方案 最好在训练期间合并权重更新(梯度)并保留一
..
我对 Keras 还很陌生,我正在尝试定义自己的指标.它计算一致性指数,这是回归问题的度量. def cindex_score(y_true, y_pred):总和 = 0对 = 0对于范围内的 i(1, len(y_true)):对于范围内的 j (0, i):如果我不是 j:如果(y_true[i] > y_true[j]):对 +=1sum += 1* (y_pred[i] > y_pre
..
我想构建一个具有两个输入的神经网络:用于图像数据和数字数据.所以我为此编写了自定义数据生成器.train 和 validation 数据帧包含 11 列: image_name — 图像的路径; 9 个数字特征; target — 项目的类(最后一列). 自定义生成器的代码(基于这个答案): target_size = (224, 224)批量大小 = 1train_datage
..
我在 Keras 中使用 CNN 来完成 NLP 任务,而不是最大池化,我试图实现随时间推移的最大池化. 关于如何实现这一目标的任何想法/技巧? 我所说的最大值随时间池化的意思是池化最高值,无论它们在向量中的哪个位置 解决方案 假设你的数据形状是 (batch_size, seq_len, features) 你可以申请: seq_model = Reshape((seq_l
..
keras==2.0.0 和 theano 后端. 注意:我使用了来自 gist 和 applications.VGG16 实用程序的示例,但在尝试连接模型时遇到问题,我对 keras 函数式 API.所以我在这里提供的这个解决方案是最“成功"的一个,即它只在拟合阶段失败. 更新 #1 好的,这是关于我正在尝试做的事情的一个小解释.首先,我从 VGG16 生成瓶颈特征如下: d
..
我有一个生成 4D 输出张量的网络,其中空间维度(~像素)中每个位置的值将被解释为该位置的类概率.换句话说,输出是(num_batches, height, width, num_classes).我有相同大小的标签,其中真正的类被编码为 one-hot.我想使用它来计算 categorical-crossentropy 损失. 问题 #1:K.softmax 函数需要一个 2D 张量 (n
..
我目前正试图在 CIFAR 100 上使用 Keras 获得不错的分数(> 40% 准确率).但是,我遇到了 CNN 模型的一种奇怪行为:它倾向于预测某些类别 (2 - 5)比其他人更频繁: 位置 (i, j) 处的像素包含来自第 i 类的验证集元素被预测为第 j 类的计数.因此对角线包含正确的分类,其他一切都是错误的.两个竖线表示模型经常预测这些类别,尽管事实并非如此. CIFAR
..
我计划创建一个 CNN 来预测蘑菇类型,并从互联网上收集了 2500 多张照片.数据集有 156 个类(不同类型的蘑菇).我在 Tensorflow 2 和 Keras 上使用 ImageDataGenerator 对其进行了训练.这是图像生成器: image_gen = ImageDataGenerator(rotation_range = 20,width_shift_range=0.12,
..
我试图在使用批量梯度下降、随机梯度下降和小批量随机梯度下降时绘制不同的学习结果. 无论我在哪里,我都读到 batch_size=1 与普通 SGD 相同,batch_size=len(train_data) 与 Batch 梯度下降相同. 我知道随机梯度下降是指每次更新只使用一个数据样本,批量梯度下降使用整个训练数据集来计算目标函数/更新的梯度. 然而,当使用 keras 实现
..
我有一个包含 65668 个文件的数据集. 我将 Keras 用于 CNN,这些是我的层: embedding_layer = Embedding(len(word_index) + 1,EMBEDDING_DIM,权重=[embedding_matrix],输入长度=MAX_SEQUENCE_LENGTH,可训练=真)序列输入=输入(形状=(MAX_SEQUENCE_LENGTH,),d
..
使用 Keras 和 Tensorflow 作为后端,我构建了一个 DNN,它以恒星光谱作为输入(7213 个数据点)并输出三个恒星参数(温度、重力和金属丰度).网络在我的测试集上训练得很好,预测也很好,但为了让结果在科学上有用,我需要能够估计我的错误.这样做的第一步是获得逆 Hessian 矩阵,这似乎无法仅使用 Keras.因此,我试图用 scipy 创建一个解决方法,使用 scipy.opt
..
我想在 keras 中创建以下损失函数: Loss = mse + double_derivative(y_pred,x_train) 我无法合并衍生项.我试过 K.gradients(K.gradients(y_pred,x_train),x_train) 但它没有帮助. 我收到错误消息: AttributeError: 'NoneType' 对象没有属性 'op' def _
..
我正在尝试使用 Keras Scikit Learn Wrapper 来随机搜索参数更简单.我在这里写了一个示例代码: 我生成了一个人工数据集: 我正在使用 scikit learn 中的 moons from sklearn.datasets import make_moons数据集 = make_moons(1000) 模型构建器定义: 我定义了需要的build_fn函
..
我刚开始学习 keras.我正在尝试在 keras 中训练非线性回归模型,但模型似乎没有学到太多东西. #datapointsX = np.arange(0.0, 5.0, 0.1, dtype='float32').reshape(-1,1)y = 5 * np.power(X,2) + np.power(np.random.randn(50).reshape(-1,1),3)#模型模型 =
..
我正在创建一个自定义层,其权重需要在激活前乘以元素.当输出和输入的形状相同时,我可以让它工作.当我将一阶数组作为输入,将二阶数组作为输出时,就会出现问题.tensorflow.multiply 支持广播,但是当我尝试在 Layer.call(x, self.kernel) 中使用它时将 x 乘以 self.kernel 变量,它抱怨它们是不同的形状说: ValueError: Dimension
..
我正在尝试使用 keras 神经网络来识别绘制数字的画布图像并输出数字.我已经保存了神经网络并使用 django 来运行 web 界面.但是每当我运行它时,我都会收到内部服务器错误和服务器端代码错误.错误说异常:检查时出错:预期dense_input_1具有形状(无,784)但得到形状为(784,1)的数组.我唯一的主要观点是 from django.shortcuts 导入渲染从 django
..