deep-learning相关内容
我有一个非常简单的用例,其中我使用sc.binaryFiles方法从s3中读取了rdd的大量图像.创建此RDD后,我会将rdd中的内容传递给vgg16功能提取器函数.因此,在此我将需要用于完成特征提取的模型数据,因此我将模型数据放入广播变量中,然后访问每个映射函数中的值.下面是代码:- s3_files_rdd = sc.binaryFiles(RESOLVED_IMAGE_PATH) s
..
我有一个keras模型,该模型可以保存每个时期的权重,如何制作一个文件 这是保存模式的行 我有50个历元,我将得到50个权重,我只希望将1个权重保存在一个文件中 > model.save_weights('checkpoint_epoch_{}.hdf5'.format(k)) 不知道我该怎么做才能将其保存在一个文件中,因为我以后必须将权重转换为张量流模型 所需
..
我试图从两个模型输出之间的差异中学习一个模型.所以我做了如下代码.但发生错误,请阅读: TypeError:输出到模型的张量必须是Keras张量.成立: Tensor("sub:0",shape =(?, 10),dtype = float32) 我找到了包括lambda在内的相关答案,但是我无法解决此问题. 有人知道这个问题吗? 可能会看到将张量转换为keras的张量. 提前谢
..
我正在尝试解决签名识别问题.我使用GPDS数据库,合并了正版和伪造签名的所有组合,从而产生了200万个200x200像素图像的输入. 我使用Keras创建了一个基本的CNN,由于硬件的限制,Im仅使用了大约5000个输入和最多10个时期进行训练.我的问题是,当我开始训练模型(model.fit命令)时,我的准确度大约在50%左右,这是我的数据集的余量,而当纪元结束时,准确度恰好是50%.当我
..
我正在尝试构建一个Autoencoder神经网络,以在文本的单列列表中查找离群值.我的输入有138行,它们看起来像这样: amaze_header_2.png amaze_header.png circle_shape.xml disableable_ic_edit_24dp.xml fab_label_background.xml fab_shadow_black.9.png fab_sh
..
我正在使用Keras库构建此深度学习模型:INPUT(深度= 1,高度= 15,宽度= 27)-> CONV [深度= 8](高度= 4,宽度= 27)-> POOL( height = 2,width = 1)->(回归)输出. 我期望卷积2d_1的输出形状为(None,8,12,1),因此,pooling2d_1的输出形状为(None,8,6,1);而我分别得到(None,8,15,27
..
代码: import numpy as np import pandas as pd import os from tqdm import tqdm # Fix seeds from numpy.random import seed seed(639) from tensorflow import set_random_seed set_random_seed(5944) # Impo
..
我收到以下错误: ValueError: Error when checking model input: the list of Numpy arrays that you are passing to your model is not the size the model expected. Expected to see 6 arrays but instead got the fo
..
我正在使用keras对mnist数据集进行分类.我有兴趣对训练后生成的权重矩阵进行一些操作,但某些层的权重矩阵看起来好像没有完全连接. model = Sequential() model.add(Dense(1000, input_shape = (train_x.shape[1],), activation='relu' )) model.add(Dense(1000, activati
..
我有一个基于Keras的简单LSTM模型. X_train, X_test, Y_train, Y_test = train_test_split(input, labels, test_size=0.2, random_state=i*10) X_train = X_train.reshape(80,112,12) X_test = X_test.reshape(20,112,12)
..
我无法为1D输入向量构建CNN. 输入值示例: df_x.iloc[300] Out[33]: 0 0.571429 1 1.000000 2 0.971429 3 0.800000 4 1.000000 5 0.142857 6 0.657143 7 0.857143 8 0.971429 9 0.000
..
我使用Keras Functional API编写了这个小模型,以发现两个人之间对话的相似性.我正在使用Gensim的Doc2Vec嵌入将文本数据转换为向量(vocab大小:4117).我的数据平均分为56个阳性病例和64个阴性病例. (是的,我知道数据集很小-但这就是我目前所拥有的全部). def euclidean_distance(vects): x, y = vects
..
我想在数据上应用CNN和LSTM,我只选择一小部分数据;我的训练数据的大小为(400,50),我的测试数据为(200,50). 仅使用CNN模型,它就可以正常工作而没有任何错误,添加LSTM模型时我只会遇到很多错误: model = Sequential() model.add(Conv1D(filters=8, kernel_size=16,
..
我正在尝试使用Keras及其预建的ImageNet CNN架构来做一个简单的二进制分类问题. 对于VGG16,我采用了以下方法, vgg16_model = keras.application.vgg16.VGG16() '''Rebuild the vgg16 using an empty sequential model''' model = Sequential() for l
..
我有以下代码.可以在此处或此处.数据集包含归类为cat或dog的图像. 此代码的任务是训练猫和狗的图像数据. 这样,给定一张图片,它就可以分辨出是猫还是狗. 它是由页面激发的.下面是成功运行的代码: library(keras) # Organize dataset -------------------------------------------------------- #
..
我有一个非常简单的Keras MLP,我正在尝试获取输出相对于输入的梯度. 我正在使用以下代码: regressor = Sequential([ Dense(32, input_shape=(n_features,), activation='relu'), Dense(1) ]) regressor.compile(optimizer=SGD(lr=0.1), lo
..
使用预训练的VGG16模型时,我无法保存最佳模型的权重.我使用以下代码: checkpointer = [ # Stop if the accuracy is not improving after 7 iterations EarlyStopping(monitor='val_loss', patience=3, verbos
..
这可能是一个非常基本的问题,但是我找不到答案: 当我使用Keras批量训练网络时,控制台输出会显示并在每个训练时期不断更新训练集当前损失值的显示.据我了解,该损失值是针对当前批次计算的(作为总损失的代理),并且可能与先前批次计算的损失值进行平均. 但是有两种方法可以获取当前批次的损失值:要么在更新参数之前,要么在更新之后.有人可以告诉我两种方法中的哪一种是正确的吗?从我观察到的结果来看,我宁愿猜测
..
我想对具有多个输入的Keras模型执行交叉验证.因此,我尝试了KerasClassifier.对于只有一个输入的普通顺序模型,这可以很好地工作.但是,当使用功能性api并将其扩展到两个输入时,sklearn的cross_val_predict似乎无法按预期工作. def create_model(): input_text = Input(shape=(1,), dtype=tf.s
..
因此,在运行以下代码行时,我遇到了TensorFlow的一些问题: history = model.fit(X, y, batch_size=32, epochs=40, validation_split=0.1) 回溯如下: Traceback (most recent call last): File "cnnmodel.py", line 71, in
..