deep-learning相关内容

让 TensorFlow 在 ARM Mac 上使用 GPU

我已经根据 这些说明.一切正常. 然而,模型训练是在 CPU 上进行的.如何将训练切换到 GPU? 在:tensorflow.config.list_physical_devices()输出:[PhysicalDevice(name='/physical_device:CPU:0', device_type='CPU')] 在 Apple 的 TensorFlow 发行版 的文档中,我发 ..
发布时间:2021-11-17 22:13:43 其他开发

如何在 arch linux 中降级到 cuda 10.0?

我想在 arch linux 中将我的 cuda 10.1 降级到 cuda 10.0,因为 tensorflow 只需要 cuda 10.0. 我在 arch Linux 中的 CUDA 10.1 上安装了 tensorflow,但我不知道 tensorflow-gpu 需要 CUDA 10.0 或更低版本. 我尝试将所需的 10.0 库与新的 10.1 库进行符号链接,但没有奏效. ..
发布时间:2021-11-17 03:24:40 其他开发

各种 TensorFlow 数据加载习惯用法适用于哪些场景?

我有一个 TensorFlow 深度学习工作流程,其中我有一个使用常规 NumPy 构建的相当简单的数据读取和馈送管道;但我看到 TensorFlow 提供了大量用于加载数据和构建数据管道的函数.我想知道这些目标是什么场景.好像有两个: 涉及非常大的现实世界数据集的学习,以及 使用高级TensorFlow API构建的网络. 似乎使用“阅读"而不是“喂食"的好处(例如像 tf.tra ..
发布时间:2021-11-15 21:01:11 其他开发

为什么gpu内存中的O3不小于O1?

我正在 2080TI * 1 中训练 EfficientDet-D7(head_only=True). 我正在使用 NVIDIA/APEX:amp. 当我使用 opt_level=O1 时,尽管与不使用 apex 时相比,内存确实减少了. 但是,当我使用opt_level=O2或O3时,会消耗更多内存. 我正在试验相同的 2080 Ti,通过创建两个具有相同 docker ..
发布时间:2021-11-15 00:09:39 其他开发

如何注释图像分割的ground truth?

我正在尝试训练一个执行图像分割的 CNN 模型,但如果我有几个,我很困惑如何创建基本事实图像样本? 图像分割可以将输入图像中的每个像素分类为预定义的类别,例如汽车、建筑物、人或任何其他类别. 是否有任何工具或一些好主意来创建地面图像分割的真相? 谢谢! 解决方案 对于语义分割,应标记图像的每个像素.有以下三种方式来解决这个任务: 基于矢量 - 多边形、折线 基 ..
发布时间:2021-11-10 22:37:05 其他开发

了解 YOLO 是如何训练的

我试图了解 YOLO (v2) 是如何训练的.为此,我正在使用这个 keras 实现 https://github.com/experiencor/keras-yolo2 在 VOC 数据集上从头开始训练 YOLO(我对其他实现持开放态度,但我从未使用过 pytorch,因此,keras 实现将是首选). 1- 据我所知,YOLO 首先在 imageNet 上进行分类训练,然后在训练 yol ..
发布时间:2021-10-04 19:52:23 其他开发

验证和测试精度差异很大

我目前正在 kaggle 中处理数据集.在训练了训练数据的模型后,我在验证数据上对其进行了测试,得到了大约 0.49 的准确率. 但是,相同的模型在测试数据上的准确率为 0.05. 我使用神经网络作为我的模型 那么,发生这种情况的可能原因是什么?如何开始检查和纠正这些问题? 解决方案 泛化差距大的原因: 不同的分布:验证集和测试集可能来自不同的分布.尝试验证它们确实 ..
发布时间:2021-09-09 19:02:57 其他开发

为什么 torch.nn.MultiheadAttention 中的 W_q 矩阵是二次的

我正在尝试在我的网络中实现 nn.MultiheadAttention.根据文档, embed_dim – 模型的总尺寸. 但是,根据源文件, embed_dim 必须能被 num_heads 整除 和 self.q_proj_weight = Parameter(torch.Tensor(embed_dim, embed_dim)) 如果我理解正确,这意味着每 ..
发布时间:2021-09-09 18:45:06 其他开发

使用 TorchText (PyTorch) 进行语言翻译

我最近开始使用 PyTorch 进行 ML/DL.以下 pytorch 示例说明了我们如何训练一个简单的模型来将德语翻译成英语. https://pytorch.org/tutorials/beginner/torchtext_translation_tutorial.html 但是,我对如何使用模型对自定义输入进行推理感到困惑.到目前为止,我的理解是: 1) 我们需要保存德语( ..
发布时间:2021-09-09 18:44:48 其他开发

如何在时间序列分类中结合 LSTM 和 CNN

当有图像作为数据时,最常使用 CNN.但是,我已经看到 CNN 是用于时间序列的 sometines.因此,我针对我的时间序列分类问题分别尝试了 LSTM 和 CNN 模型.我的两个模型如下. LSTM: model = Sequential()model.add(LSTM(200, input_shape=(25,3)))模型.添加(密集(100))model.add(Dense(1, ..
发布时间:2021-09-07 20:33:36 其他开发

为什么我得到的是数组而不是向量大小?

我想获得一个矢量大小(46).但我得到阵列.我使用的数据集是路透社. 我打印 NN 预测的地方是最后几行代码. 代码: from keras.datasets import reuters从 keras 导入模型、层、损失从 keras.utils.np_utils 导入到_categorical将 numpy 导入为 np(train_data, train_labels), (t ..
发布时间:2021-09-05 20:15:22 其他开发

我怎样才能实现这个模型?

问题陈述 我有 3 个班级(A、B 和 C). 我有 6 个功能: train_x = [[ 6.442 6.338 7.027 8.789 10.009 12.566][ 6.338 7.027 5.338 10.009 8.122 11.217][ 7.027 5.338 5.335 8.122 5.537 6.408][ 5.338 5.335 5.659 5.537 5.24 ..
发布时间:2021-09-05 20:14:53 其他开发

如何在不立即加载整个数据集的情况下将数据集拆分为 K 折?

我无法一次加载所有数据集,因此我使用了 tf.keras.preprocessing.image_dataset_from_directory() 以便在训练期间加载批量图像.如果我想将我的数据集分成 2 个子集(训练和验证),它工作得很好,但是,我想将我的数据集分成 K 折以进行交叉验证.(5折就好了) 如何在不加载整个数据集的情况下制作 K 折?我必须放弃使用 tf.keras.prep ..
发布时间:2021-09-05 20:08:21 其他开发

tf.signal.rfft2d 输出形状?

目前我正在尝试实施 Fourier CNN. 对我来说,第一步是了解 real傅立叶变换. 我在下面有一些代码片段: input = Input(shape=(150, 150, 3))f = Lambda(lambda x: tf.signal.rfft2d(x))(输入)打印(f.shape,f.dtype)# >(无, 150, 150, 2) ..
发布时间:2021-09-05 20:05:56 其他开发

层sequential_10的Keras LSTM Input 0与层不兼容

我的 LSTM 代码如下: def myLSTM(i_shape, o_shape):输入 = keras.layers.Input(i_shape)模型 = 顺序()x = keras.layers.LSTM(128, return_sequences = True, input_shape = (x_train.shape[1], 1))(input)x = keras.layers.Dro ..
发布时间:2021-09-05 20:04:52 其他开发