tensorflow相关内容
我是一名经验丰富的 Python 开发人员,但在机器学习方面完全是新手.这是我第一次尝试使用 Keras.你能说出我做错了什么吗? 我正在尝试制作一个神经网络,它采用二进制形式的数字,并在除以 7 时输出其模数.(我的目标是执行一个非常简单的任务,只是为了看看一切正常.) 在下面的代码中,我定义了网络,并在 10,000 个随机数上对其进行了训练.然后我在 500 个随机数上对其进行测
..
是否可以定义具有多个输入的 TensorFlow 图?例如,我想给图形两个图像和一个文本,每个图像都由一堆图层处理,最后是一个 fc 图层.然后有一个节点计算一个考虑了三种表示的损失函数.目的是让三个网络在考虑联合表示损失的情况下进行反向传播.是否可以?有关于它的示例/教程吗? 解决方案 这完全是直截了当的事情.对于“一个输入",你会有类似的东西: def build_column(x,
..
我的问题是关于 TensorFlow 方法 tf.nn.dynamic_rnn.它返回每个时间步的输出和最终状态. 我想知道返回的最终状态是最大序列长度时单元格的状态还是由 sequence_length 参数单独确定. 为了更好地理解一个例子:我有 3 个序列,长度为 [10,20,30] 并返回最终状态 [3,512](如果隐藏状态单元格的长度为 512). 这三个序列的三个
..
我正在Python Keras 中拟合一个神经网络. 为了避免过度拟合,我想监控训练/验证损失并创建一个适当的回调,当训练损失远小于验证损失时停止计算. 回调的一个例子是: callback = [EarlyStopping(monitor='val_loss', value=45,verbose=0, mode='auto')] 当训练损失与验证损失相比太小时,有没有办法停止训练
..
如何处理在训练神经网络时产生不平衡结果的多标签分类?我遇到的解决方案之一是惩罚罕见标记类的错误.这是我设计网络的方式: 类数:100.输入层、第1隐藏层和第2层(100)与dropouts和ReLU全连接.第二个隐藏层的输出是py_x. cost = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=py_x,lab
..
我目前正在使用神经网络和拟合函数训练我的数据. history=model.fit(X,encoded_Y,batch_size=50,nb_epoch=500,validation_split=0.2,verbose=1) 现在我使用了validation_split 作为20%.我的理解是我的训练数据将是 80%,测试数据将是 20%.我很困惑如何在后端处理这些数据.是将前 80% 的样本
..
总的来说,我对 Tensorflow 和 ML 还很陌生,所以我在此为一个(可能的)微不足道的问题道歉. 我使用 dropout 技术来提高我的网络的学习率,它似乎工作得很好.然后,我想在一些数据上测试网络,看看它是否像这样: def Ask(self, image):返回 self.session.run(self.model, feed_dict = {self.inputPh: i
..
我正在运行 TensorFlow,但我碰巧有一些产生 NaN 的东西.我想知道它是什么,但我不知道如何做到这一点.主要问题是,在“正常"过程程序中,我只会在执行操作之前编写一个打印语句.TensorFlow 的问题是我不能这样做,因为我首先声明(或定义)了图形,因此向图形定义添加打印语句无济于事.是否有任何规则、建议、启发式方法或任何方法可以追踪可能导致 NaN 的原因? 在这种情况下,我更
..
我看到 imageDataGenerator 允许我指定不同风格的数据规范化,例如featurewise_center、samplewise_center 等 我从示例中看到,如果我指定这些选项之一,那么我需要调用生成器上的 fit 方法,以便允许生成器计算统计数据,例如生成器上的平均图像. (X_train, y_train), (X_test, y_test) = cifar10.lo
..
我对 keras 还很陌生,我已经建立了一个简单的网络来尝试: import numpy as np;从 keras.models 导入顺序;从 keras.layers 导入密集,激活;数据= np.genfromtxt("./kerastests/mydata.csv", delimiter=';')x_target=data[:,29]x_training=np.delete(data,6
..
我正在尝试使用深度学习来预测来自约会网站的 15 个自我报告属性的收入. 我们得到了相当奇怪的结果,与我们的训练数据相比,我们的验证数据获得了更高的准确性和更低的损失.这在不同大小的隐藏层中是一致的.这是我们的模型: 对于 [250, 200, 150, 100, 75, 50, 25, 15, 10, 7] 中的 hl1:定义基线模型():模型 = 顺序()model.add(密集(hl
..
我想做一个简单的神经网络,它应该只实现异或门.我在 python 中使用 TensorFlow 库.对于异或门,我训练的唯一数据是完整的真值表,应该足够了吧?过度优化是我期望很快发生的事情.代码的问题在于 weights 和 biases 没有更新.不知何故,它仍然给了我 100% 的准确度,偏差和权重为零. x = tf.placeholder("float", [None, 2])W = t
..
我正在尝试运行以下(缩短的)代码: coord = tf.train.Coordinator()线程 = tf.train.start_queue_runners(sess=sess, coord=coord)尝试:而不是 coord.should_stop():# 运行一些代码....(从文件 1 中读取一些数据)coord_dev = tf.train.Coordinator()线程开发 =
..
关于语言模型的 tensorflow 教程允许计算句子的概率: probabilities = tf.nn.softmax(logits) 在下面的评论中,它还指定了一种预测下一个单词的方法而不是概率,但没有指定如何做到这一点.那么如何使用这个例子输出一个单词而不是概率呢? lstm = rnn_cell.BasicLSTMCell(lstm_size)# LSTM 内存的初始状态.stat
..
我正在尝试使用深度神经网络架构对二进制标签值进行分类 - 0 和 +1.这是我在 tensorflow 中执行此操作的代码.这个问题也继承自 上一个问题 将 tensorflow 导入为 tf将 numpy 导入为 np从预处理导入 create_feature_sets_and_labelstrain_x,train_y,test_x,test_y = create_feature_sets
..
我正在尝试使用深度神经网络架构对二进制标签值进行分类 - -1 和 +1.这是我在 tensorflow 中执行此操作的代码. 将 tensorflow 导入为 tf将 numpy 导入为 np从预处理导入 create_feature_sets_and_labelstrain_x,train_y,test_x,test_y = create_feature_sets_and_labels()
..
在 tensorflow MNIST 教程中mnist.train.next_batch(100) 函数非常方便.我现在正在尝试自己实现一个简单的分类.我的训练数据放在一个 numpy 数组中.我怎样才能为我自己的数据实现类似的功能来给我下一批? sess = tf.InteractiveSession()tf.global_variables_initializer().run()Xtr, Y
..
我发现了以下方法 tf.extract_image_patches 在 tensorflow API 中,但我不清楚它的功能. 说batch_size = 1,图像大小为225x225x3,我们想提取32x32大小的补丁. 这个函数的行为究竟如何?具体来说,文档提到输出张量的维度是 [batch, out_rows, out_cols, ksize_rows * ksize_cols
..
我已经阅读了分布式 Tensorflow 文档,它提到在异步训练中,> 图的每个副本都有一个独立的训练循环,无需协调即可执行. 据我所知,如果我们使用具有数据并行架构的参数服务器,这意味着每个工作人员都会计算梯度并更新自己的权重,而无需关心其他工作人员对分布式训练神经网络的更新.由于所有权重都在参数服务器 (ps) 上共享,我认为 ps 仍然必须以某种方式协调(或聚合)所有工作人员的权重更
..
在 MNIST LSTM 示例中,我不明白“隐藏层"是什么意思.当您表示随时间展开的 RNN 时,它是形成的虚层吗? 为什么在大多数情况下 num_units = 128 ? 解决方案 隐藏单元的数量是神经网络学习能力的直接表示——它反映了学习参数的数量.值 128 可能是任意或凭经验选择的.您可以通过实验更改该值并重新运行程序以查看它如何影响训练准确度(您可以使用 很多 更少的隐藏
..