cross-entropy相关内容

在PyTorch中打印每个时期的验证损失

我要打印模型在每个纪元的验证损失,获取和打印验证损失的正确方式是什么? 是这样的吗: criterion = nn.CrossEntropyLoss(reduction='mean') for x, y in validation_loader: optimizer.zero_grad() out = model(x) loss = criterion(out, y) loss ..
发布时间:2022-02-23 10:12:43 其他开发

二元交叉熵与具有 2 个类别的分类交叉熵

在考虑将输入分类为 2 个类别之一的问题时,我看到的 99% 的示例使用具有单个输出和 sigmoid 的 NN 作为激活,然后是二元交叉熵损失.我想到的另一个选择是让最后一层产生 2 个输出并使用 C=2 类的分类交叉熵,但我从未在任何示例中看到它.有什么原因吗? 谢谢 解决方案 如果你在两个输出网络之上使用 softmax 你会得到一个数学的输出相当于在顶部使用带有 sigmoi ..
发布时间:2022-01-06 19:29:05 Python

为什么“softmax_cross_entropy_with_logits_v2"反向传播到标签

我想知道为什么在 Tensorflow 1.5.0 及更高版本中,softmax_cross_entropy_with_logits_v2 默认为反向传播到标签和 logits.在哪些应用/场景中您希望反向传播到标签中? 解决方案 我看到下面的 github issue 提出了同样的问题,你可能想关注它以备将来更新. https://github.com/tensorflow/min ..

如何在 Keras 中进行逐点分类交叉熵损失?

我有一个生成 4D 输出张量的网络,其中空间维度(~像素)中每个位置的值将被解释为该位置的类概率.换句话说,输出是(num_batches, height, width, num_classes).我有相同大小的标签,其中真正的类被编码为 one-hot.我想使用它来计算 categorical-crossentropy 损失. 问题 #1:K.softmax 函数需要一个 2D 张量 (n ..

我的交叉熵函数实现有什么问题?

我正在学习神经网络,我想在 python 中编写一个函数 cross_entropy.它被定义为 其中N为样本数,k为类数,log为自然数对数,如果样本i在j类中,t_i,j为1,否则0,p_i,j 是样本i 属于j 类的预测概率.为了避免对数的数值问题,将预测剪裁到 [10^{−12}, 1 − 10^{−12}] 范围. 根据上面的描述,我通过将预测裁剪到 [epsilon, 1 ..

在哪些情况下,交叉熵优于均方误差?

虽然上述两种方法都为更好的预测接近度提供了更好的分数,但仍然首选交叉熵.是在每种情况下还是在某些特殊情况下我们更喜欢交叉熵而不是 MSE? 解决方案 分类首选交叉熵,而回归的均方误差是最佳选择之一>.这直接来自问题本身的陈述 - 在分类中,您使用非常特殊的一组可能的输出值,因此 MSE 定义错误(因为它没有这种知识,因此以不兼容的方式惩罚错误).为了更好地理解现象,最好遵循并理解它们之间的 ..

如何使用 sparse_softmax_cross_entropy_with_logits 在张量流中实现加权交叉熵损失

我开始使用 tensorflow(来自 Caffe),并且我正在使用损失sparse_softmax_cross_entropy_with_logits.该函数接受像 0,1,...C-1 这样的标签,而不是 onehot 编码.现在,我想根据类标签使用权重;我知道如果我使用 softmax_cross_entropy_with_logits(一种热编码),这可能可以通过矩阵乘法来完成,有没有办法 ..
发布时间:2021-12-09 22:52:39 Python

Keras 和 TensorFlow 中所有这些交叉熵损失之间有什么区别?

所有这些交叉熵损失之间有什么区别? Keras 正在谈论 二元交叉熵 分类交叉熵 稀疏分类交叉熵 虽然 TensorFlow 有 Softmax 交叉熵与 logits 使用 logits 的稀疏 softmax 交叉熵 Sigmoid 交叉熵与 logits 它们之间有什么区别和关系?它们的典型应用是什么?数学背景是什么?还有其他应该知道的交叉熵类型吗?有没 ..

TensorFlow 中的 logits 一词是什么意思?

在下面的 TensorFlow 函数中,我们必须在最后一层输入人工神经元的激活.我明白.但我不明白为什么它被称为logits?这不是数学函数吗? loss_function = tf.nn.softmax_cross_entropy_with_logits(logits = last_layer,标签 = target_output) 解决方案 Logits 是一个重载的术语,可以表示许多不 ..

TensorFlow:对于交叉熵函数,我的 logits 格式是否正确?

好的,我准备运行 tf.nn.softmax_cross_entropy_with_logits() Tensorflow 中的函数. 我的理解是“logits"应该是概率张量,每个张量对应于某个像素的概率,即它是最终将成为“狗"或“卡车"或其他任何图像的一部分.. 有限数量的东西. 这些 logits 将被插入到这个交叉熵方程中: 据我所知,logits 被插入到等式的右侧.也 ..
发布时间:2021-09-05 19:20:44 其他开发