deep-learning相关内容
我正在尝试研究神经网络和深度学习(http://neuralnetworksanddeeplearning.com/chap1.html)。使用MichalDanielDobrzanski为Python3更新的版本(https://github.com/MichalDanielDobrzanski/DeepLearningPython)。我试图在我的命令控制台中运行它,但它给出了下面的错误。我试着
..
我收到以下错误: 运行错误:输入必须有3个维度,得到%2 我有一个功能栏,我正尝试将其输入GRU神经网络。 下面是我的数据加载器和神经网络。在检索一批数据时,我还包含了数据加载器的输出。 我做错了什么? def batch_data(feature1, sequence_length, batch_size): “”" Batch the neural network d
..
我没有找到任何要使用的经过预先培训的LSTM模型。 TfLite是否提供了任何经过预先培训的LSTM模型? 我试图创建tflite模型,但在转换时遇到了问题?你能提供准确的脚本来创建tfLite模型吗? TfLite有没有用最新版本创建tfLite LSTM模型的脚本? 这是我创建tfLite模型的脚本。但它不起作用。 import numpy as np import tensorflow
..
您好,我是DL和TensorFlow的初学者 我创建了一个CNN(您可以看到下面的模型) model = tf.keras.Sequential() model.add(tf.keras.layers.Conv2D(filters=64, kernel_size=7, activation="relu", input_shape=[512, 640, 3])) model.add(t
..
我自己有一个深度学习项目的数据集。我把它上传到了Google Drive上,并链接到了Colab的一个页面上。但Colab在一秒钟内只能读取2-3张图片,而我的电脑可以读取数十张。(我使用imread来读取图像。) keras的模型编译过程没有速度问题,但仅在从Google Drive读取图像时存在速度问题。有谁知道解决办法吗?也有人遇到了这个问题,但它仍然没有解决:Google Colab
..
在PyTorch中是否可以在训练过程中动态更改优化器的学习速度(我不想预先定义学习速度计划)? 假设我有一个优化器: optim = torch.optim.SGD(model.parameters(), lr=0.01) 现在由于我在训练中做了一些测试,我意识到我的学习速度太快了,所以我想把它改为0.001。似乎没有方法optim.set_lr(0.001),但有什么方法可以做到
..
如何从SSD中找到预测的图像ID和Box,我正在使用GitHub link这里是我想要保存图像ID和Box的测试函数 def test(loader, net, criterion, device): net.eval() running_loss = 0.0 running_regression_loss = 0.0 running_classification_loss = 0.0 nu
..
我有一个类似的开放问题here on Cross Validated(虽然不是以实现为重点的,我打算这个问题是这样的,所以我认为它们都是有效的)。 我正在进行一个项目,该项目使用传感器来监控人员的GPS位置。然后,坐标将被转换为简单的网格表示。我想尝试和做的是,在记录用户路线后,训练神经网络来预测下一个坐标,即以下面的例子为例,用户在一段时间内只重复两条路线,Home->A和Home->B。
..
我正在尝试使用MLP进行分类。以下是模特的外观。 import keras from keras.models import Sequential from keras.layers import Dense, Dropout from keras.utils import np_utils model = Sequential() model.add(Dense(256, activ
..
我正在开发一个回归神经网络,它使用Kera 1.2.1、TensorFlow后端和用于动态图像增强的生成器。 我希望根据与每个图像相关联的标签来增加我的随机数据集。 例如,在每个时期,我只想包括被标记为0.00的图像的25%。 另一方面,如果图像标记为-.20,我想将其旋转/翻转/完全旋转某个随机量。 问题是,我如何才能有选择地根据图像数据的标签来增加图像数据? 这可能吗? 推
..
我正在尝试培训一个网络,但我得到了, 我将我的批处理大小设置为300,我得到了这个错误,但即使我将它减少到100,我仍然得到这个错误,更令人沮丧的是,对于在~1200个图像上运行10个纪元,它需要大约40分钟,任何建议是哪里出了问题,以及我如何加快这个过程! 任何提示都将是非常有帮助的,提前谢谢。 -----------------------------------------------
..
最近,当我尝试实现AlexNet时,我在Pytorch中遇到了一个方法。 我不明白它是怎么运作的。请举几个例子解释一下背后的想法。在神经网络功能方面,它与Maxpooling或Average Poling有何不同 nn.AdaptiveAvgPool2d((6,6)) 推荐答案 在平均池化或最大池化中,基本上由您自己设置步长和内核大小,并将它们设置为超参数。如果您碰巧更改了输入大
..
我跟随tutorial使用OpenCV和深度学习SSD框架从image实现了人脸检测。 modelFile = "./ssd/res10_300x300_ssd_iter_140000.caffemodel" configFile = "./ssd/deploy.prototxt" net = cv2.dnn.readNetFromCaffe(configFile, modelFile) i
..
我正在训练我的方法。我得到的结果如下。这是一个很好的学习速度吗?如果不是,它是高还是低? 这是我的结果 lr_policy: "step" gamma: 0.1 stepsize: 10000 power: 0.75 # lr for unnormalized softmax base_lr: 0.001 # high momentum momentum: 0.99 # no gradien
..
我认为对于低GPU内存的PyTorch用户来说,这是一个非常常见的信息: RuntimeError: CUDA out of memory. Tried to allocate 😊 MiB (GPU 😊; 😊 GiB total capacity; 😊 GiB already allocated; 😊 MiB free; 😊 cached) 我想为我的课程研究对象检测算法。而
..
我已经从TensorFlow_addons训练了一个带有Keras层和Weight_Normalization层的模型。这是我训练并保存为TensorFlow文件格式的模型: import tensorflow as tf import tensorflow.keras as tk import tensorflow_addons as tfa model = tf.keras.Seque
..
我正在尝试使用tfds.Feature.Video对TensorFlow 2中的视频进行解码,以便使用以下代码输出“tf.uint8类型的tf.张量器和形状[Num_Frames,Height,Width,Channels]”: import numpy as np import pandas as pd import tensorflow as tf import tensorflow_d
..
我想打印LSTM层的状态值。 class CustomCallback(keras.callbacks.Callback): def on_epoch_end(self, epoch, logs=None): encoder_outputs, state_h, state_c = self.model.layers[1].output print(sta
..
我正尝试在一个深度学习项目中使用CelebA数据集。我拿到了卡格尔的拉链文件夹。 我想解压图像,然后将其拆分为训练、测试和验证,但后来发现在我的功能不是很强大的系统上不可能做到这一点。 因此,为了避免浪费时间,我希望使用TensorFlow-DataSets方法加载CelebA数据集。但遗憾的是,数据集无法访问,出现以下错误: (代码优先) ds = tfds.load('cel
..
当我运行时 pickle.dump(model,open('modelDL.pkl','wb')) 我得到 TypeError: can't pickle weakref objects 我创建了一个深度学习模型,我正在尝试保存该模型。型号: model = Sequential() model.add( Dense(30,activation='relu') ) mo
..