tensorflow相关内容
我想知道为什么在 Tensorflow 1.5.0 及更高版本中,softmax_cross_entropy_with_logits_v2 默认为反向传播到标签和 logits.在哪些应用/场景中您希望反向传播到标签中? 解决方案 我看到下面的 github issue 提出了同样的问题,你可能想关注它以备将来更新. https://github.com/tensorflow/min
..
在张量板中,我想在同一个图上叠加 2 个图(神经网络的训练和验证损失). 我可以看到 2 个单独的图,但看不到一个具有 2 条叠加曲线的图.否则,我会得到一个锯齿状的地块. 我该怎么办? 解决方案 可以在 Tensorboard 中叠加两个图.您必须同时满足以下两个条件: 创建两个单独的 tf.train.SummaryWriter 对象,使其输出到两个文件夹中.
..
给定一组用于训练神经网络的训练样例,我们希望对训练中的各种样例赋予或多或少的权重.我们根据示例的“价值"(例如有效性或置信度)的一些标准,将介于 0.0 和 1.0 之间的权重应用于每个示例.这如何在 Tensorflow 中实现,尤其是在使用 tf.nn.sparse_softmax_cross_entropy_with_logits() 时? 解决方案 在最常见的情况下,您使用 log
..
我想构建一个具有两个输入的神经网络:用于图像数据和数字数据.所以我为此编写了自定义数据生成器.train 和 validation 数据帧包含 11 列: image_name — 图像的路径; 9 个数字特征; target — 项目的类(最后一列). 自定义生成器的代码(基于这个答案): target_size = (224, 224)批量大小 = 1train_datage
..
我计划创建一个 CNN 来预测蘑菇类型,并从互联网上收集了 2500 多张照片.数据集有 156 个类(不同类型的蘑菇).我在 Tensorflow 2 和 Keras 上使用 ImageDataGenerator 对其进行了训练.这是图像生成器: image_gen = ImageDataGenerator(rotation_range = 20,width_shift_range=0.12,
..
我有一个包含 65668 个文件的数据集. 我将 Keras 用于 CNN,这些是我的层: embedding_layer = Embedding(len(word_index) + 1,EMBEDDING_DIM,权重=[embedding_matrix],输入长度=MAX_SEQUENCE_LENGTH,可训练=真)序列输入=输入(形状=(MAX_SEQUENCE_LENGTH,),d
..
我正在尝试使用 TensorFlow 的估算器.在文档中,以下代码用于训练和评估网络.> # 适合nn.fit(x=training_set.data,y=training_set.target,steps=5000)# 评分准确率ev = nn.evaluate(x=test_set.data, y=test_set.target, 步骤=1)loss_score = ev[“损失"]打印(“
..
在网上搜索了几个小时都没有结果,所以想在这里问一下. 我正在尝试按照 Sentdex 的教程制作自动驾驶汽车,但是在运行模型时,我遇到了一系列致命错误.我已经在互联网上搜索了解决方案,许多人似乎都有同样的问题.但是,我没有找到任何解决方案(包括 this Stack-post),为我工作. 这是我的软件: Tensorflow:1.5,GPU 版本 CUDA:9.0,带有补丁
..
我正在创建一个自定义层,其权重需要在激活前乘以元素.当输出和输入的形状相同时,我可以让它工作.当我将一阶数组作为输入,将二阶数组作为输出时,就会出现问题.tensorflow.multiply 支持广播,但是当我尝试在 Layer.call(x, self.kernel) 中使用它时将 x 乘以 self.kernel 变量,它抱怨它们是不同的形状说: ValueError: Dimension
..
我正在与 tensorflow 合作,希望能训练一个深度 CNN 来为围棋游戏进行移动预测.我创建的数据集由 100,000 个二进制数据文件组成,其中每个数据文件对应一个记录的游戏,并包含大约 200 个训练样本(游戏中的每个动作一个).我相信在使用 SGD 时获得良好的混合非常重要.我希望我的批次包含来自不同游戏的样本和来自游戏不同阶段的样本.因此,例如,简单地从 100 个文件的开头读取一个
..
我如何将 G_h1 = tf.nn.relu(tf.matmul(z, G_W1) + G_b1) 更改为泄漏的 relu?我尝试使用 max(value, 0,01*value) 循环张量,但我得到 TypeError: Using a tf.Tensor as a Python bool is not allowed. 我也尝试在Tensorflow github上找到relu上的源代码
..
我有兴趣在拟合我的 keras 模型时创建回调.更详细地说,我想在每次 epoch 结束时从带有 val_acc 的机器人电报中收到一条消息.我知道你可以在 classifier.fit() 中添加一个 callback_list 作为参数,但是许多回调是由 keras 预先构建的,我不知道如何添加自定义的. 谢谢! 解决方案 以下是我如何向回调添加验证准确性的示例: class
..
我的深度学习模型使用的是 Tensorflow(CPU 版本).具体使用 DNNRegressor Estimator 进行训练,使用给定的参数集(网络结构、隐藏层、alpha 等)虽然我能够减少损失,但模型需要非常长的学习时间(大约 3 天.)和时间每 100 步需要 9 秒. 我看到了这篇文章:-https://medium.com/towards-data-科学/如何训练张量流模型-7
..
这是张量流中更快的 R-CNN 实现. proposal_layer 是 实现 python 我很好奇梯度是否可以通过tf.py_func 权重和偏差不断变化 所以我认为梯度返回成功 那我做个小测试 将 tensorflow 导入为 tf将 numpy 导入为 np定义插件(x):# 打印类型(x)返回 x + 1def pyfunc_test():# 创建数据x_data
..
我是神经网络的新手,并为初学者学习了 MNIST 示例. 我目前正在尝试在另一个没有测试标签的 Kaggle 数据集上使用这个例子. 如果我在没有相应标签的测试数据集上运行模型,因此无法像 MNIST 示例中那样计算准确度,我希望能够看到预测.是否有可能以某种方式访问观察结果及其预测标签并将其打印出来? 解决方案 我认为你只需要按照教程中的说明评估你的输出张量: accu
..
我正在用 tensorflow 编写神经网络代码.我让它在每 1000 个 epoch 中保存变量.因此,我希望为不同的文件保存第 1001 个纪元、第 2001 个纪元、第 3001 个纪元……的变量.下面的代码是我做的保存功能. def save(self, epoch):model_name = "MODEL_save"checkpoint_dir = os.path.join(model
..
我想创建一个网络,其中输入层中的节点仅连接到下一层中的某些节点.这是一个小例子: 到目前为止,我的解决方案是将 i1 和 h1 之间的边的权重设置为零,并且在每个优化步骤之后,我将权重与矩阵相乘(I称这个矩阵掩码矩阵),其中除了i1和h1之间边的权重的条目外,每个条目都是1.(见下方代码) 这种方法对吗?或者这对 GradientDescent 有影响吗?是否有另一种方法可以在 Ten
..
为了使结果可重现,我已将 20 多篇文章添加到我的脚本中,并将最多的功能添加到我的脚本中……但失败了. 在官方消息中,I red 有 2 种种子 - 全局种子和可操作种子.可能是,解决我的问题的关键是设置操作种子,但我不知道在哪里应用它. 请您帮我用 tensorflow(版本 > 2.0)实现可重现的结果吗?非常感谢. from keras.models import Sequen
..
我是 TensorFlow 和数据科学的新手.我做了一个简单的模块,应该弄清楚输入和输出数字之间的关系.在这种情况下,x 和 x 平方.Python中的代码: 将 numpy 导入为 np将张量流导入为 tf# TensorFlow 只记录错误消息.tf.logging.set_verbosity(tf.logging.ERROR)特征 = np.array([-10, -9, -8, -7,
..
是否可以将向量传递给训练有素的神经网络,使其仅从训练识别的类的子集中进行选择.例如,我有一个经过训练可以识别数字和字母的网络,但我知道我接下来运行它的图像不会包含小写字母(例如序列号的图像).然后我向它传递一个向量,告诉它不要猜测任何小写字母.由于这些类是互斥的,因此网络以 softmax 函数结束.以下只是我想尝试但没有真正奏效的示例. 将 numpy 导入为 npdef softmax(ar
..