conv-neural-network相关内容

产生“不详"的librosaMFCC频谱图

我正在尝试使用librosa创建MFCC图,但是该图似乎并不十分详细.目标是将该MFCC频谱图呈现给神经网络.我正在测试的音频文件长约1秒,来自Google Speech Commands数据集.我的代码是: WINDOW_SIZE = 20NFFT = int(((WINDOW_SIZE/1000)* 16000)样本_ = librosa.load(f,sr = 16000)mfccs = ..
发布时间:2021-04-22 20:10:00 Python

一维CNN的输入形状(Keras)

我正在使用Keras构建CNN,并将以下Conv1D作为我的第一层: cnn.add(Conv1D(过滤器= 512,kernel_size = 3,步幅= 2,activation = hyperparameters ["activation_fn"],kernel_regularizer = getattr(regularizers,hyperparameters ["regulariza ..
发布时间:2021-04-22 20:09:56 Python

步骤数未知-在Google Colab Pro上训练卷积神经网络

我正在尝试在 Google Colab Pro 上运行(训练)我的 CNN ,当我运行代码时,一切都还好,但是它不知道步骤,因此创建了无限循环. 安装在/content/drive2.2.0-rc3共找到2个类别的10018张图像.共找到2个类别的1336张图像.警告:tensorflow:`period`参数已被弃用.请使用"save_freq"以看到的批次数量指定频率.时代1/3008/未知 ..
发布时间:2021-04-22 20:09:50 其他开发

验证准确性很高,但预测不正确

我正在建立一个keras模型来对猫和狗进行分类.我使用了具有瓶颈功能的转移学习和vgg模型的微调.现在,我获得了非常不错的验证准确性,例如97%,但是当我进行预测时,关于分类报告和混淆矩阵的结果却非常糟糕.可能是什么问题? 这是微调的代码和我得到的结果 base_model = applications.VGG16(weights ='imagenet',include_top = Fa ..
发布时间:2021-04-22 20:09:47 其他开发

每次我运行神经网络代码时结果都会改变

通过运行此链接神经网络–预测多个变量的值.我能够计算损失的准确性等.但是,每次运行此代码时,都会得到一个新结果.是否有可能获得相同(一致)的结果? 解决方案 代码随处都是 random.randint()!此外,权重在大多数情况下也是随机设置的,并且batch_size对结果也有影响(尽管影响很小). Y_train,X_test,X_train是随机生成的 使用 adam 作为优 ..

辍学训练

由辍学导致的许多变薄层如何平均?在测试阶段要使用哪些砝码?我对此很困惑.因为每个变薄的层将学习不同的权重集.那么对每个精简网络分别进行反向传播吗?在这些精简网络之间权重是如何精确分配的?因为在测试时仅使用一个神经网络和一组权重.那么使用了哪一组权重? 据说,每个训练案例都训练了一个不同的瘦化网络.培训案例到底是什么意思?您是说每个正向传播和反向传播都会训练一个不同的瘦化网络一次?然后,下一次 ..
发布时间:2021-04-22 20:09:35 其他开发

在tf.nn.conv2d中使用权重初始值设定项

使用 tf.layers.conv2d 时,设置初始化程序很容易,可以通过其参数来完成.但是,如果我使用 tf.nn.conv2d ,该怎么办?我使用此代码.这是否等同于在 tf.layers.conv2d 中设置 kernel_initializer 参数?尽管程序运行没有错误,但我不知道如何验证程序是否按预期进行. ,其中tf.name_scope('conv1_2')作为范围:内核= tf ..
发布时间:2021-04-22 20:09:32 Python

tf.keras.layers.Conv1D是否支持RaggedTensor输入?

在tensorflow conv1D层文档中,它表示; '当将此层用作模型的第一层时,请提供input_shape参数(整数或无的元组,例如(10,128)128维向量的10个向量的序列,或者(无,128)128维向量的可变长度序列.' 所以我知道我们可以输入可变长度的序列,但是当我在conv1D层上使用参差不齐的张量输入时,会给我一个错误: ValueError:层conv1d ..
发布时间:2021-04-22 20:09:26 其他开发

如何将2D边界框像素坐标(x,y,w,h)转换为相对坐标(Yolo格式)?

嗨!我正在通过在线平台注释图像数据,该平台生成如下所示的输出坐标: bbox":{"top":634,"left":523,"height":103,"width":145} 但是,我想使用此注释来训练Yolo.因此,我必须将其转换为yolo格式,如下所示: 4 0.838021 0.605556 0.177083 0.237037 在这方面,我需要有关如何进行转换的帮助. 解决方案 ..
发布时间:2021-04-22 20:09:23 Python

训练CNN时的数据扩充因子

在训练CNN时,许多作者提到从原始图像的中心随机裁剪图像,放大倍数为2048.谁能解释一下这是什么意思? 解决方案 我相信您指的是采用深度卷积神经网络的ImageNet分类数据增强方案.他们的数据扩充方案的2048x方面如下: 首先将所有图像重新缩放为256x256 然后,对于每个图像,它们会随机抽取224x224尺寸的农作物. 对于每个随机的224x224作物,它们还通过对这2 ..
发布时间:2021-04-22 20:09:09 其他开发

从最后一个隐藏层提取特征Pytorch Resnet18

我正在使用 Oxford Pet数据集实现图像分类器带有预训练的Resnet18 CNN.数据集包含37个类别,每个类别中都有约200张图像. 我不想使用CNN的最后一个fc层作为输出进行预测,而是希望使用CNN作为特征提取器对宠物进行分类. 对于每个图像,我都希望从最后一个隐藏层(应该在 1000维输出层之前)获取要素.我的模型正在使用Relu激活,因此我应该在ReLU之后抓取输出( ..
发布时间:2021-04-22 20:09:01 Python

在PyTorch培训之外使用多个GPU

我正在计算nn.Conv2d层内每对内核之间的累积距离.但是,对于较大的层,使用具有12gb内存的Titan X会耗尽内存.我想知道是否可以将这样的计算结果划分为两个GPU.代码如下: def ac_distance(layer):总计= 0对于layer.weight中的p:对于layer.weight中的q:总+ =距离(p,q)总回报 其中 layer 是 nn.Conv2d 的实例 ..
发布时间:2021-04-22 20:08:58 其他开发

yolo算法的坐标输出代表什么?

我的问题类似于本主题.当我开始考虑yolo算法的输出时,我正在观看Andrew Ng关于边界框预测的演讲.让我们考虑这个示例,我们使用19x19网格和只有一个2类的接收场,因此我们的输出将为=> 19x19x1x5.最后一个维度(大小为5的数组)表示以下内容: 1)类(0或1)2)X坐标3)Y坐标4)边框的高度5)边框的宽度 我不知道X,Y坐标是代表整个图像的大小还是正好接受域(过滤器)的 ..

在Keras中使用EfficientNet时出现ResourceExhaustedError

我正在使用Google colab.使用 EfficientNetB3 时,出现以下错误 资源耗尽:分配带有shape [15,95,95,192]并键入float的张量时,OOM 我理解这一点,因为我的数据不适合GPU.但是当我尝试 InceptionResNetV2 时,我没有得到任何错误. EfficientNetB3 中可训练参数的数量为 22,220,824 Incept ..

tf.reshape与tf.contrib.layers.flatten

因此,我正在运行CNN来解决分类问题.我有3个转换层和3个池化层.P3是最后一个池化层的输出,其尺寸为: [Batch_size,4,12,48] ,我想将该矩阵展平为 [Batch_size,2304] 大小矩阵, 2304 = 4 * 12 * 48 .我一直在使用“选项A"(请参见下文),但有一天我想尝试“选项B",从理论上讲,我会得到相同的结果.但是,事实并非如此.我之前已经检查了以下线程 ..
发布时间:2021-04-22 20:08:38 Python

Tensorflow Inception多个GPU训练损失未加总?

我正在尝试针对多个GPU(在一台机器上)使用Tensorflow的初始代码.我很困惑,因为据我所知,我们从不同的塔楼(又名GPU)中遭受了多次损失,但是评估的 loss 变量似乎只是最后一个塔楼的损失,而不是所有塔楼损失的总和塔楼: 用于xrange(FLAGS.max_steps)中的步骤:start_time = time.time()_,loss_value = sess.run([tra ..
发布时间:2021-04-22 20:08:31 其他开发