conv-neural-network相关内容
我正在研究CNN上超过数百GB的图像.我创建了一个训练功能,该功能可以消除这些图像的4Gb块,并在每个片段上调用fit.我担心我只训练最后一块而不是整个数据集. 有效地,我的伪代码如下: DS = lazy_load_400GB_Dataset() for section in DS: X_train = section.images Y_train = section
..
我对神经网络和keras有点陌生.我有一些尺寸为6 * 7的图像,并且滤镜的大小为15.我想要有几个滤镜并分别在每个滤镜上训练卷积层,然后将它们组合.我在这里看了一个例子: model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], b
..
我有一个自动编码器,我想从中保存模型,特别是编码器部分(或权重,不确定我到底需要什么)的模型,然后将其加载到CNN中. 我的目标是使用自动编码器学习要分类的项目的功能,然后使用这些权重启动CNN. 我尝试仅加载权重,但是由于两个网络的大小不同,它们将无法加载.我虽然只是导入整个网络都可以,但是一个是顺序的,另一个是起作用的. 自动编码器 #load in data using i
..
我是Keras的新手,我正试图在Keras中担当重任.我知道如何在Python的Tensorflow中做到这一点. 代码: data = np.array(attributes, 'int64') target = np.array(labels, 'int64') feature_columns = [tf.contrib.layers.real_valued_column("",
..
我正在尝试使用带有Keras和Tensorflow后端的U-Net来实现图像分割任务.我将大小为(128,96)的图像与大小为(12288,6)的蒙版图像一起输入到网络,因为它们被展平了.我有6个不同的类(0-5),它们给出了蒙版图像形状的第二部分.使用to_categorical()函数将它们编码为一键式标签.目前,我只使用一张输入图像,也使用同一张图像作为验证和测试数据. 我希望U-Ne
..
我有10个类别的数据集,因此我的准确率达到了85%,在保存的模型上达到了相同的准确度. 现在我想添加一个新类,如何向保存的模型中添加一个新类. 我尝试删除最后一层并进行训练,但是模型变得过拟合,并且在预测中,每个Images都显示相同的结果(新添加的类). 这就是我所做的 model.pop() base_model_layers = model.output pred = Dense
..
我正在训练一个小型网络,训练似乎进行得很顺利,val损失减少,我的验证精度达到80,并且在没有更多改善时实际上停止了训练(耐心= 10).它训练了40个纪元.但是,它始终为每个测试图像仅预测一个类!我尝试随机初始化conv层,添加了正则化器,从Adam切换到SGD,添加了clipvalue,添加了辍学.我也切换到softmax(我只有两个标签,但是我看到了一些有关使用带有2个神经元的softmax
..
假设我想比较两个具有深度卷积神经网络的图像.如何在keras中使用相同的内核实现两种不同的途径? 赞: 我需要卷积层1,2和3使用并训练相同的内核. 有可能吗? 我还想将下面的图像连接起来 但是问题是关于如何在第一张图片上实现totopology. 解决方案 您可以在模型中使用两次相同的层,从而创建from keras.models import Model
..
以下代码 from tensorflow import keras from keras.layers import Conv2D model = keras.Sequential() model.add(Conv2D(1, (3, 3), padding='same', input_shape=(28, 28, 1))) 执行时抛出错误: TypeError: The adde
..
我想使用conv3d在同一CNN结构中同时输入8张图像.我的CNN模型如下: def build(sample, frame, height, width, channels, classes): model = Sequential() inputShape = (sample, frame, height, width, channels) chanDim =
..
我正在用14个新类对MobileNet进行微调.当我通过以下方式添加新图层时: x=mobile.layers[-6].output x=Flatten(x) predictions = Dense(14, activation='softmax')(x) model = Model(inputs=mobile.input, outputs=predictions) 我得到了错误:
..
我对利用我在深度学习任务中拥有的一些部分标记的数据感兴趣.我使用的是完全卷积方法,而不是从标记区域采样补丁. 我有一些遮罩,这些遮罩概述了图像中肯定的正例的区域,但是图像中未遮罩的区域不一定是负的-它们可能是正的.有谁知道将这种类型的课程纳入深度学习环境的方法吗? 三重/相反的损失似乎是可行的方法,但是我不确定如何适应“模糊"或模棱两可的负/正空间. 解决方案 尝试标签平滑
..
我正在将VGG16与keras一起用于迁移学习(我的新模型中有7个类),因此,我想使用内置的encode_predictions方法输出我的模型的预测.但是,使用以下代码: preds = model.predict(img) decode_predictions(preds, top=3)[0] 我收到以下错误消息: ValueError:decode_predictions期
..
所以在过去的几个月中,我已经学习了很多有关Tensorflow和Keras的神经网络的知识,所以我想尝试为CIFAR10数据集建立一个模型(下面的代码). 但是,在训练过程中,准确性会提高(从1个周期后的35%到5个周期后的60-65%),但是val_acc保持不变或仅增加了一点.以下是打印结果: Epoch 1/5 50000/50000 [=====================
..
我已经成功地在Keras中训练了一个简单的模型来对图像进行分类: model = Sequential() model.add(Convolution2D(32, 3, 3, border_mode='valid', input_shape=(img_channels, img_rows, img_cols), activation='rel
..
我正在尝试创建自己的损失函数: def custom_mse(y_true, y_pred): tmp = 10000000000 a = list(itertools.permutations(y_pred)) for i in range(0, len(a)): t = K.mean(K.square(a[i] - y_true), axis=-1)
..
正如标题所述.该代码仅适用于: x = Flatten()(x) 在卷积层和密集层之间. import numpy as np import keras from keras.models import Sequential, Model from keras.layers import Dense, Dropout, Flatten, Input from keras.layer
..
在训练CNN模型时,实际上在每个时期都有可能减少损失并降低准确性吗? 训练时我得到以下结果. 有人可以解释这种情况发生的可能原因吗? 解决方案 至少有5个可能导致这种行为的原因: 异常值::假设您有10张完全相同的图像,其中9张属于 A 类,而其中一个属于 B .在这种情况下,由于大多数示例,模型将开始为该示例分配 A 类的高概率.但是然后-来自异常值的信号可能会破坏模型的稳定
..
我最近开始学习机器学习,正在学习CNN,我计划借助 github存储库. 这是汽车数据集的外观: F:\WORKSPACE\ML\CAR_DAMAGE_DETECTOR\DATASET\DATA3A ├───training (979 Images for all 3 categories of training set) │ ├───01-minor │ ├───02-mod
..
我试图在keras中合并2个顺序模型.这是代码: model1 = Sequential(layers=[ # input layers and convolutional layers Conv1D(128, kernel_size=12, strides=4, padding='valid', activation='relu', input_shape=input_sh
..