deep-learning相关内容
我使用带有线性核的 SVC 分类器来训练我的模型.训练数据:42000条记录 模型 = SVC(probability=True)模型.fit(self.features_train,self.labels_train)y_pred = model.predict(self.features_test)train_accuracy = model.score(self.features_tra
..
我有来自 Retina Unet 的 Unet 模型,但是我增强了图像以及面具.现在?它给了我这个错误 ValueError: output of generator should be a tuple (x, y, sample_weight) or (x, y).发现:无我想在增强(图像和蒙版)上进行训练并在增强图像和蒙版上进行验证. 批量生成函数: def batch_genera
..
在 tensorflow CIFAR-10 教程在 cifar10_inputs.py 行174 据说你应该随机化操作 random_contrast 和 random_brightness 的顺序以获得更好的数据增强. 为此,我想到的第一件事是从 0 和 1 之间的均匀分布中绘制一个随机变量:p_order.然后做: 如果 p_order>0.5:畸变图像=tf.image.random
..
我想实现本文中介绍的空间金字塔池化层. 作为论文设置,重点是定义max_pooling层的variant kernel size和stride size,即: kernel_size = ceil(a/n)stride_size = floor(a/n) 其中 a 是输入张量空间大小,n 是金字塔级别,即池化输出的空间区间. 我尝试用 tensorflow 实现这一层: 将 nu
..
我正在尝试在 Keras 模型中使用 tensorflow 操作.我之前尝试用 Lambda 层包装它,但我相信这会禁用该层的反向传播. 更具体地说,我正在尝试使用 此处 在 Keras 模型中,无需将其移植到 Keras 层(我希望稍后部署到 tensorflow).我可以以共享库的形式编译这些层并将它们加载到 python 中.这给了我 tensorflow 操作,但我不知道如何将它结合
..
我有兴趣利用我在深度学习任务中拥有的一些部分标记的数据.我使用的是完全卷积的方法,而不是从标记区域中采样补丁. 我有一些掩码可以勾勒出图像中明确正例的区域,但图像中未掩蔽的区域不一定是负的——它们可能是正的.有谁知道将此类课程纳入深度学习环境的方法? Triplet/contrastive loss 似乎是要走的路,但我不确定如何适应“模糊"或模糊的负/正空间. 解决方案 尝试
..
我想安装 Torch (http://torch.ch/docs/getting-started.html#_) 在 Google Colab 上.但是,要安装 Torch,我们需要在最后一步运行以下命令 source ~/.bashrc 在google colab上运行这个命令,我使用的代码是 %%bash源 ~/.bashrc 当我运行这些时,我收到警告 bash: line
..
在 Keras 中似乎没有对 RNN 的平均池化层的内置支持.有人知道怎么包装吗?
..
我在最新的 Tensorflow 示例中找到了 tf.contrib.layers.embed_sequence() 函数,但它并未包含在主 API 中.我不知道为什么.任何有关其工作原理的解释将不胜感激. 解决方案 我能想到 tensorflow.contrib.layers.embed_sequence 有用的两个主要原因: 在构建具有多个以特征为输入的门的神经网络模型时,通过使
..
Inception v3 模型如下图所示: 图片来自这篇博文: https://research.googleblog.com/2016/03/train-your-own-image-classifier-with.html 好像有两个Softmax分类输出.这是为什么? TensorFlow 示例中使用哪个作为此文件中名称为“softmax:0"的输出张量?
..
我想在与特定领域(在我的情况下与工程相关)相关的文本上微调 BERT.培训应该是无人监督的,因为我没有任何标签或任何东西.这可能吗? 解决方案 您实际上想要的是继续对来自您特定域的文本进行 BERT 预训练.在这种情况下,您要做的是继续将模型训练为掩码语言模型,但使用您的领域特定数据. 您可以使用 run_mlm.py 来自 Huggingface 的变形金刚的脚本.
..
我是移动开发人员.我想在 MLKit.tflite)一>. 但是有一些问题,我不知道如何知道.tflite模型的输入/输出特征信息(这些将是设置参数). 有什么办法知道吗? 抱歉英语不好,谢谢. 更新(18.06.13.): 我发现这个网站 https://lutzroeder.github.io/Netron/.此可视化图基于您上传的模型(如 .mlmode 或 .
..
以下是使用 PyTorch 中的 nn.functional() 模块的前馈网络 将 torch.nn 导入为 nn导入 torch.nn.functional 作为 F类 newNetwork(nn.Module):def __init__(self):super().__init__()self.fc1 = nn.Linear(784, 128)self.fc2 = nn.Linear(12
..
我目前正在为我的硕士学位做一个深度学习项目.我想安装 keras 库,所以当我开始安装 Theano 和 tensorflow 时,我看到我必须安装 CUDA.但是我的笔记本电脑带有英特尔高清显卡.所以我的问题是,如果我无论如何都安装它们,它会起作用.谢谢 解决方案 你可以在没有 cuda 的情况下安装和使用 keras,但你不能用 intel 高清显卡加速 gpu. 如果你使用 T
..
我很好奇 image_summary 的工作原理.有一个名为 max_images 的参数,它控制要显示的图像数量.但是,摘要似乎只显示一批中的图像.如果我们使用更大的 max_iamges 值,我们将只查看批次中的更多图像.有没有一种方法可以查看例如每批中的一个图像? 解决方案 要查看每个批次的一张图像,您需要获取 tf.image_summary() 操作.例如,您有以下设置: 图像
..
我已按照 https://machinelearningmastery.com/return-sequences-and-return-states-for-lstms-in-keras/但是当涉及到双向 lstm 时,我尝试了这个 lstm, state_h, state_c = Bidirectional(LSTM(128, return_sequences=True, return_sta
..
我使用的是 Keras VGG16 模型. 我看到有一个 preprocess_input 方法与 VGG16 模型结合使用.此方法似乎调用了 imagenet_utils.py 中的 preprocess_input 方法 其中(视情况而定)调用 _preprocess_numpy_input 方法在 imagenet_utils.py 中. preprocess_input 有一个
..
我有 tf.callbacks.ModelChekpoint 的问题.正如您在我的日志文件中看到的,警告总是在计算 val_acc 的最后一次迭代之前出现.因此,Modelcheckpoint 永远找不到 val_acc 纪元1/301/8 [==>................................] - 预计到达时间:19 秒 - 损失:1.4174 - 准确度:0.30002/
..
我正在预测 EWMA(指数加权移动平均)公式使用简单 RNN 的时间序列.已经在此处发布了相关信息. 虽然模型使用 keras-tf(来自 tensorflow import keras)可以很好地收敛,但完全相同的代码在使用原生 keras(导入 keras)时不起作用. 收敛模型代码(keras-tf): from tensorflow import keras将 numpy 导
..
我正在尝试使用带有 TensorFlow 后端的 keras 来预测图像中的特征.具体来说,我正在尝试使用 keras ImageDataGenerator.该模型设置为运行 4 个 epoch 并运行良好,直到第 4 个 epoch 失败并出现 MemoryError. 我在运行 Ubuntu Server 的 AWS g2.2xlarge 实例上运行此模型16.04 LTS (HVM),
..