deep-learning相关内容
我正在学习 TensorFlow.因此,为了了解如何制作某些东西,我尝试从源代码中复制一些代码并执行它.但是我遇到了错误消息.所以我尝试了这个网站的一些解决方案,但它不起作用(我在评论中保留了我的测试). """程序 1 """将张量流导入为 tf将 numpy 导入为 np从 tensorflow.examples.tutorials.mnist 导入 input_datamnist = i
..
学习使用 Python 进行深度学习,我无法理解以下将整数序列编码为二进制矩阵的简单代码. def vectorize_sequences(序列,维度=10000):# 创建一个形状为 (len(sequences), 维度) 的全零矩阵结果 = np.zeros((len(sequences), 维度))对于 i,enumerate(sequences) 中的序列:results[i, seq
..
def save_checkpoint(state, is_best, filename='checkpoint.pth.tar'):torch.save(状态,文件名)如果 is_best:关闭.copyfile(文件名,'model_best.pth.tar')保存检查点({'纪元':纪元+1,'拱':args.arch,'state_dict': model.state_dict(),'be
..
对于二进制分类问题,我从 keras evaluate_generator() 和 predict_generator() 获得了不同的模型准确度: defevaluate_model(model, generator, nBatches):score = model.evaluate_generator(generator=generator, # 生成元组的生成器steps=generato
..
这是我在此处发布的问题的后续:在 AWS 实例 g2.2xlarge 上使用 TensorFlow 运行卷积神经网络时,较大图像的内存错误 我使用 TensorFlow 在 Python 中构建了一个 CNN 模型,并在 NVIDIA GRID K520 GPU 上运行它.它在 64x64 图像上运行良好,但在 128x128 图像上产生内存错误(即使输入仅包含 1 个图像). 错误说
..
我将 sigmoid 交叉熵损失函数用于多标签分类问题,如 本教程.然而,在他们的教程结果和我的结果中,输出预测都在 (-Inf, Inf) 范围内,而 sigmoid 的范围是 [0, 1].sigmoid 是否只在 backprop 中处理?也就是说,前向传递不应该压缩输出吗? 解决方案 在这个例子中,"SigmoidCrossEntropyLoss" 层的输入是一个全连接层的输出.实
..
我正在尝试实施最近的一篇论文.此实现的一部分涉及从 tf 1.14 迁移到 tf 2.1.0.该代码适用于 tf 1.14,但不再有效. 注意:如果我禁用急切执行 tf.compat.v1.disable_eager_execution() 那么代码会按预期工作. 这是解决方案吗?我之前在 TF 2.x 中制作了大量模型,并且从未禁用过 Eager Execution 来实现正常功能.
..
我对 Keras 真的很陌生,所以如果我的查询有点愚蠢,请原谅我.我使用默认方法在我的系统中安装了 Keras,它运行良好.我想在 Keras 中添加一个新的优化器,以便我可以在 model.compile 函数下轻松提及“optimizer = mynewone".如何更改 Keras 中的“optimizer.py"代码并确保更改反映在我的 Keras 环境中.这是我尝试过的: 假设我在
..
Caffe 支持 LMDB 数据层和 ImageDataLayer.从某些数据集创建 LMDB 数据库需要一些时间和大量空间.相比之下,ImageDataLayer 只使用一个 txt 文件,非常方便.我的问题是,这两种层之间的速度差异大吗?非常感谢! 解决方案 LMDB 旨在更快地从给定的键值 获取数据.此外,数据以未压缩的格式存储,这使得机器可以轻松读取数据并将其直接传递给GPU进行处
..
我正在尝试实现一个简单的 RNN 来预测整数序列中的下一个整数.所以,我有一个如下的数据集: Id 序列1 1,0,0,2,24,552,21280,103760,70299264,5792853248,5871599447042 1,1,5,11,35,93,269,747,2115,5933,16717,47003,132291,372157,1047181,2946251,8289731,
..
我有一个一维序列,我想将其用作 Keras VGG 分类模型的输入,分为 x_train 和 x_test.对于每个序列,我还在 feats_train 和 feats_test 中存储了自定义特征,我不想将它们输入到卷积层,而是输入到第一个全连接层. 因此,一个完整的训练或测试样本将由一个一维序列加上 n 个浮点特征组成. 首先将自定义特征提供给全连接层的最佳方法是什么?我想过将输入序列
..
我尝试在 keras 博客文章. 代码写入 .npy 文件如下: bottleneck_features_train = model.predict_generator(generator, nb_train_samples//batch_size)np.save(open('bottleneck_features_train.npy', 'w'),bottleneck_features_
..
我是机器学习的新手,目前正在尝试训练具有 3 个卷积层和 1 个全连接层的卷积神经网络.我使用的辍学概率为 25%,学习率为 0.0001.我有 6000 张 150x200 的训练图像和 13 个输出类.我正在使用张量流.我注意到一个趋势,我的损失稳步下降,但我的准确度仅略有增加,然后又回落.我的训练图像是蓝线,我的验证图像是橙色线.x 轴是步长. 我想知道是否有我不理解的地方,或者这种现
..
我在尝试训练 this关于这个数据集. 由于这是论文中发布的配置,我假设我做错了什么. 每次我尝试运行训练时,此错误都会出现在不同的图像上. C:/w/1/s/windows/pytorch/aten/src/THCUNN/ClassNLLCriterion.cu:106:块:[0,0,0],线程:[6,0,0]断言`t >= 0 &&<n_classes` 失败.回溯(最近一次调用
..
将pandas导入为pd将 numpy 导入为 np导入 matplotlib.pyplot 作为 pltdataset = pd.read_csv("Churn_Modelling.csv")X = dataset.iloc[:,3:13].valuesY = dataset.iloc[:,13:].values从 sklearn.preprocessing 导入 OneHotEncoder,L
..
这是代码,我只在最后一行收到错误 y_pred = classifier.predict(X_test).我得到的错误是 AttributeError: 'KerasClassifier' object has no attribute 'model' # 导入库将 numpy 导入为 np导入 matplotlib.pyplot 作为 plt将熊猫导入为 pd从 sklearn 导入数据集从
..
我想了解 word2vec 示例 有效,但并不真正理解传递给 nse_loss 函数的权重和偏差的目的是什么.该函数有两个变量输入:权重(加上偏差)和嵌入. # 查找输入的嵌入.嵌入 = tf.Variable(tf.random_uniform([vocabulary_size, embedding_size], -1.0, 1.0))嵌入 = tf.nn.embedding_lookup(嵌
..
不同的团队使用不同的库来训练和运行神经网络(caffe、torch、theano...).这使得共享变得困难:每个库都有自己的格式来存储网络,并且每次要测试其他团队的工作时都必须安装一个新库. 我正在寻找解决方案以减少繁琐:- 是否有首选(共享?)格式来存储神经网络?- 是否有可以帮助处理不同类型网络/或将一种类型转换为另一种类型的服务或库? 谢谢! 解决方案 是否有首选(
..
我有一台配备 RTX 2060 GPU 的笔记本电脑,我正在使用 Keras 和 TF 2 在其上训练 LSTM.我还通过 nvidia-smi 监视 gpu 的使用,我注意到 jupyter notebook 和 TF 的使用率最高为 35%,通常 gpu 的使用率在 10-25% 之间. 目前条件下,训练这个模型需要7个多小时,我想知道是我做错了什么还是Keras和TF的限制? 我
..
实际上我正在尝试使用从 Image Net 上预训练的初始模型到我的灰度数据集的迁移学习,所以我只想知道我可以使用相同的权重还是应该在使用之前先进行一些更改权重. 提前致谢. 解决方案 有几个选项可用: 使用标准 OpenCV 函数将灰度图像转换为彩色图像. 在前面添加一个深度为 3 的卷积层作为输出.照常进行. 从现有网络的第一层中选择一组权重. 平均现有网络第一层的权
..