keras相关内容
我有一个一维序列,我想将其用作 Keras VGG 分类模型的输入,分为 x_train 和 x_test.对于每个序列,我还在 feats_train 和 feats_test 中存储了自定义特征,我不想将它们输入到卷积层,而是输入到第一个全连接层. 因此,一个完整的训练或测试样本将由一个一维序列加上 n 个浮点特征组成. 首先将自定义特征提供给全连接层的最佳方法是什么?我想过将输入序列
..
我尝试在 keras 博客文章. 代码写入 .npy 文件如下: bottleneck_features_train = model.predict_generator(generator, nb_train_samples//batch_size)np.save(open('bottleneck_features_train.npy', 'w'),bottleneck_features_
..
将pandas导入为pd将 numpy 导入为 np导入 matplotlib.pyplot 作为 pltdataset = pd.read_csv("Churn_Modelling.csv")X = dataset.iloc[:,3:13].valuesY = dataset.iloc[:,13:].values从 sklearn.preprocessing 导入 OneHotEncoder,L
..
这是代码,我只在最后一行收到错误 y_pred = classifier.predict(X_test).我得到的错误是 AttributeError: 'KerasClassifier' object has no attribute 'model' # 导入库将 numpy 导入为 np导入 matplotlib.pyplot 作为 plt将熊猫导入为 pd从 sklearn 导入数据集从
..
我有一台配备 RTX 2060 GPU 的笔记本电脑,我正在使用 Keras 和 TF 2 在其上训练 LSTM.我还通过 nvidia-smi 监视 gpu 的使用,我注意到 jupyter notebook 和 TF 的使用率最高为 35%,通常 gpu 的使用率在 10-25% 之间. 目前条件下,训练这个模型需要7个多小时,我想知道是我做错了什么还是Keras和TF的限制? 我
..
我有来自 Retina Unet 的 Unet 模型,但是我增强了图像以及面具.现在?它给了我这个错误 ValueError: output of generator should be a tuple (x, y, sample_weight) or (x, y).发现:无我想在增强(图像和蒙版)上进行训练并在增强图像和蒙版上进行验证. 批量生成函数: def batch_genera
..
我正在尝试在 Keras 模型中使用 tensorflow 操作.我之前尝试用 Lambda 层包装它,但我相信这会禁用该层的反向传播. 更具体地说,我正在尝试使用 此处 在 Keras 模型中,无需将其移植到 Keras 层(我希望稍后部署到 tensorflow).我可以以共享库的形式编译这些层并将它们加载到 python 中.这给了我 tensorflow 操作,但我不知道如何将它结合
..
我有兴趣利用我在深度学习任务中拥有的一些部分标记的数据.我使用的是完全卷积的方法,而不是从标记区域中采样补丁. 我有一些掩码可以勾勒出图像中明确正例的区域,但图像中未掩蔽的区域不一定是负的——它们可能是正的.有谁知道将此类课程纳入深度学习环境的方法? Triplet/contrastive loss 似乎是要走的路,但我不确定如何适应“模糊"或模糊的负/正空间. 解决方案 尝试
..
在 Keras 中似乎没有对 RNN 的平均池化层的内置支持.有人知道怎么包装吗?
..
我目前正在为我的硕士学位做一个深度学习项目.我想安装 keras 库,所以当我开始安装 Theano 和 tensorflow 时,我看到我必须安装 CUDA.但是我的笔记本电脑带有英特尔高清显卡.所以我的问题是,如果我无论如何都安装它们,它会起作用.谢谢 解决方案 你可以在没有 cuda 的情况下安装和使用 keras,但你不能用 intel 高清显卡加速 gpu. 如果你使用 T
..
我已按照 https://machinelearningmastery.com/return-sequences-and-return-states-for-lstms-in-keras/但是当涉及到双向 lstm 时,我尝试了这个 lstm, state_h, state_c = Bidirectional(LSTM(128, return_sequences=True, return_sta
..
我使用的是 Keras VGG16 模型. 我看到有一个 preprocess_input 方法与 VGG16 模型结合使用.此方法似乎调用了 imagenet_utils.py 中的 preprocess_input 方法 其中(视情况而定)调用 _preprocess_numpy_input 方法在 imagenet_utils.py 中. preprocess_input 有一个
..
我有 tf.callbacks.ModelChekpoint 的问题.正如您在我的日志文件中看到的,警告总是在计算 val_acc 的最后一次迭代之前出现.因此,Modelcheckpoint 永远找不到 val_acc 纪元1/301/8 [==>................................] - 预计到达时间:19 秒 - 损失:1.4174 - 准确度:0.30002/
..
我正在预测 EWMA(指数加权移动平均)公式使用简单 RNN 的时间序列.已经在此处发布了相关信息. 虽然模型使用 keras-tf(来自 tensorflow import keras)可以很好地收敛,但完全相同的代码在使用原生 keras(导入 keras)时不起作用. 收敛模型代码(keras-tf): from tensorflow import keras将 numpy 导
..
我正在尝试使用带有 TensorFlow 后端的 keras 来预测图像中的特征.具体来说,我正在尝试使用 keras ImageDataGenerator.该模型设置为运行 4 个 epoch 并运行良好,直到第 4 个 epoch 失败并出现 MemoryError. 我在运行 Ubuntu Server 的 AWS g2.2xlarge 实例上运行此模型16.04 LTS (HVM),
..
我想使用keras中定义的各种损失函数来手动计算损失值.例如: from keras.losses import binary_crossentropy错误=binary_crossentropy([1,2,3,4],[6,7,8,9]) 给我错误 AttributeError: 'list' 对象没有属性 'dtype'. 类似的方式我想使用其他 keras 损失函数.我有我的 y_pr
..
我已经用 Keras 编写了一个生成器函数,在从 __getitem__ 返回 X,y 之前,我仔细检查了 X 和 Y 的形状,它们没问题,但是生成器给出了维度不匹配数组和警告. (要复制的 Colab 代码:https://colab.research.google.com/drive/1bSJm44MMDCWDU8IrG2GXKBvXNHCuY70G?usp=sharing) 我的
..
我正在尝试在 keras 中创建一个带有分桶的自动编码器,其中输入和输出具有不同的时间步长. model = Sequential()#编码器模型.添加(嵌入(vocab_size,embedding_size,mask_zero=True))model.add(LSTM(units=hidden_size, return_sequences=False))#解码器model.add(Rep
..
我为应用程序制作了自己的模型并将其作为 .h5 文件保存在 Keras 中.我使用 PyQt5 制作了 GUI 应用程序,这个应用程序使用了这个模型.我正在尝试在没有任何关于深度学习模型的信息的情况下部署此应用程序.我对这种情况有一些疑问. 我可以隐藏或加密我的模型以防止其架构和权重暴露吗? 如果 Keras 不支持加密模型,是否还有其他库(如 PyTorch)支持此功能? 我期待听
..
我想知道是否可以将自定义模型添加到 keras 的损失函数中.例如: def model_loss(y_true, y_pred):inp = 输入(形状=(128, 128, 1))x = 密集(2)(输入)x = 展平()(x)模型 = 模型(输入=[inp],输出=[x])a = 模型(y_pred)b = 模型(y_true)# 计算 MSEmse = K.mean(K.square(a
..