conv-neural-network相关内容
上下文 我已经使用Keras在MNIST上训练了一个模型.我的目标是在第一层之后打印图像,第一层是Conv2D层.为此,我将创建一个具有单个Conv2D层的新模型,在该模型中,我将从受过训练的网络中将权重复制到新的模型中. # Visualization for image ofter first convolution model_temp = Sequential() model_
..
例如,我有CNN试图从MNIST数据集(使用Keras编写的代码)中预测数字.它有10个输出,构成softmax层.输出中只有一个是真实的(对于从0到9的每个数字都是独立的): Real: [0, 1, 0, 0, 0, 0, 0, 0, 0, 0] Predicted: [0.02, 0.9, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01]
..
我在Keras中有卷积神经网络. 我需要知道每一层中要素地图的尺寸. 我的输入是28 x 28像素的图像.我知道有一种方法可以计算这个,但我不确定.以下是我使用Keras的代码段. img_rows, img_cols = 28, 28 nb_filters = 32 nb_pool = 2 nb_conv = 3 model = Sequential() model.add(Con
..
我将Keras中的CNN用于NLP任务,而不是最大池化,我试图在一段时间内实现最大池化. 关于如何实现这一目标的任何想法/技巧? 我随时间推移的最大值池的意思是汇集最高值,无论它们在向量中的何处 解决方案 假设您的数据形状为(batch_size, seq_len, features),则可以应用: seq_model = Reshape((seq_len * featu
..
我正在尝试加载在Azure VM(NC促销)上受过训练的Keras模型.但是我遇到了以下错误. TypeError:意外的关键字参数传递给了Optimizer:learning_rate 编辑: 这是我用来加载模型的代码段: from keras.models import load_model model = load_model('my_model_name.h5')
..
我正在尝试为图像分类实现FCNN,以接受可变大小的输入.该模型是在带有TensorFlow后端的Keras中构建的. 考虑以下玩具示例: model = Sequential() # width and height are None because we want to process images of variable size # nb_channels is either
..
我正在使用Keras的CNN对MNIST数据集进行分类.我发现使用不同的批处理大小会产生不同的精度.为什么会这样呢? 使用批量大小1000 (Acc = 0.97600) 使用批量大小10 (Acc = 0.97599) 尽管差异很小,为什么还存在差异? 编辑-我发现差异只是因为精度问题,实际上它们是相等的. 解决方案 这是因为在训练过程中出现了Mini-batch梯度下
..
我目前正在尝试使用Keras对VGG16网络进行微调. 我开始对猫和狗的数据集进行一些调整. 但是,在当前配置下,训练似乎在第一个时期就被阻止了 from keras import applications from keras.preprocessing.image import ImageDataGenerator from keras import optimizers f
..
我正在尝试使用CNN进行情感分析 我的代码将数据传递给convolution2D时,我的数据的形状为(1000,1000),这将向我抛出错误.我无法解决. 我尝试下面的解决方案,但仍然面临问题. 扩建CNN时,我收到了Keras的投诉,这些投诉对我来说是没有道理的. 我的代码在下面. TfIdf = TfidfVectorizer(max_features=1000) X = TfI
..
我使用具有预训练权重的AlexNet(heuritech/convnets-keras)解决8类而不是1000个类别的分类问题.用Model(input=..,output=..)初始化网络并加载初始权重后,我删除了最后两层, Dense(1000)和Activation(softmax),并添加我自己的两层:Dense(8)和Activation(softmax). 但是然后,在运行后我得到了一
..
我要两个人建立一个神经网络,以两个具有相同维度(例如灰度图像)的单独矩阵作为输入,并输出一个介于-1和1之间(可能为tanh)的值. 我想构建网络,以便有两个独立的卷积层作为输入.每一个取一个矩阵(或图像).然后将这些内容合并到下一层.所以我希望它看起来像这样: 我的第一个问题是我可以在keras中执行此操作吗(或者如果不在tensorflow中执行此操作)? 第二个问题是?是否有意义
..
这是我的代码: cnn_input = Input(shape=(cnn_max_length,)) emb_output = Embedding(num_chars + 1, output_dim=32, input_length=cnn_max_length, trainable=True)(cnn_input) output = TimeDistributed(Convolution
..
我正在使用keras的预训练模型,尝试获取预测时出现错误.我在Flask服务器中有以下代码: from NeuralNetwork import * @app.route("/uploadMultipleImages", methods=["POST"]) def uploadMultipleImages(): uploaded_files = request.files.getl
..
我正在使用卷积神经网络研究图像像素分类问题. 我的训练images的大小为128x128x3,而 标签mask是128x128 我在Keras进行如下培训: Xtrain, Xvalid, ytrain, yvalid = train_test_split(images, masks,test_size=0.3, random_state=567) model.fit(Xtrain,
..
这就是我所做的.我得到了用于狗/猫图像分类的代码,并且我编译运行后获得了80%的准确性.我在火车和验证文件夹中又添加了一个类(飞机)文件夹.在以下代码中进行了更改 model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy'
..
我正在尝试使用PASCAL VOC 2012数据集上具有'ImageNet'预训练权重的VGG16架构进行迁移学习. PASCAL VOC是具有20个类的多标签图像数据集,因此我修改了内置的VGG16模型,如下所示: def VGG16_modified(): base_model = vgg16.VGG16(include_top=True,weights='imagenet',i
..
我创建了一个经过微调的网络,该网络使用vgg16作为基础.我正在使用Python进行深度学习中的5.4.2可视化CovNet过滤器>(与Keras博客上的指南非常相似,以可视化convnet过滤器该指南仅使用vgg16网络.我的微调模型使用vgg16模型作为基础,例如: model.summary() Layer (type) Output Shape
..
我有一些长的一维矢量(3000位),我要对其进行分类.之前,我已经实现了一个简单的CNN,可以相对成功地对它们进行分类: def create_shallow_model(shape,repeat_length,stride): model = Sequential() model.add(Conv1D(75,repeat_length,strides=stride,padd
..
我一直在使用以下功能API来使用CNN进行图像分类: def create_model(X_train, X_test): visible = Input(shape=(X_train.shape[0], X_train.shape[1], 1)) conv1 = Conv2D(32, kernel_size=4, activation='relu')(visible)
..
我正在使用flask运行Web服务器,并且在尝试使用vgg16时出现错误,vgg16是keras的预训练VGG16模型的全局变量.我不知道为什么会出现此错误,或者它是否与Tensorflow后端有关. 这是我的代码: vgg16 = VGG16(weights='imagenet', include_top=True) def getVGG16Prediction(img_path):
..