neural-network相关内容

PySpark:获取 Spark ML 多层感知器分类器的输出层神经元值

我正在使用 Spark ML 多层感知器分类器进行二元分类. mlp = MultilayerPerceptronClassifier(labelCol="evt", featuresCol="features", layers=[inputneurons,(inputneurons*2)+1,2]) 输出层有两个神经元,因为它是一个二元分类问题.现在我想为测试集中的每一行获取两个神经元的值, ..
发布时间:2021-11-14 21:05:38 其他开发

如何注释图像分割的ground truth?

我正在尝试训练一个执行图像分割的 CNN 模型,但如果我有几个,我很困惑如何创建基本事实图像样本? 图像分割可以将输入图像中的每个像素分类为预定义的类别,例如汽车、建筑物、人或任何其他类别. 是否有任何工具或一些好主意来创建地面图像分割的真相? 谢谢! 解决方案 对于语义分割,应标记图像的每个像素.有以下三种方式来解决这个任务: 基于矢量 - 多边形、折线 基 ..
发布时间:2021-11-10 22:37:05 其他开发

来自 TF 的 Keras:损失是 NaN 并且无法找到可以处理输入的数据适配器:<class 'pandas.core.frame.DataFrame'>, <class 'NoneType'>

我试图找到一些应该可以解决我的问题的解决方案,但目前它们都不起作用.(例如 Tensorflow ValueError: Failed to find data adapter可以处理输入) 我正在使用具有输入形状的自定义数据集通过 Keras(来自 TF)进行神经网络: (5000, 1) 和输出形状 (5000, 16).输入是时间和周期数,输出是 16 个灯中每一个的状态(0 表示关闭 ..
发布时间:2021-09-05 20:07:19 其他开发

向 Tensorflow 中的损失函数添加常量

我问过类似的问题,但没有回应.所以我再试一次, 我正在阅读一篇论文,其中建议将一些在 Tensorflow 之外计算的值添加到 Tensorflow 中神经网络模型的损失函数中.我给你看这里的报价(我已经模糊了不重要的部分): 在 Tensorflow 中拟合序列模型时,如何向损失函数添加预先计算的值?使用的损失函数是 BinaryCrossentropy,你可以在论文引用的方程(4) ..
发布时间:2021-09-05 20:07:16 其他开发

TensorFlow/Keras 使用特定类召回作为稀疏分类交叉熵的度量

*底部更新 我正在尝试使用 3 个类中的 2 个作为度量标准,因此 A、B、C 类中的 B 类和 C 类. (这的原始性质是我的模型在类别中高度不平衡 [~90% 是 A 类],因此当我使用准确度时,每次预测 A 类时我都会得到 ~90% 的结果) model.compile(loss='sparse_categorical_crossentropy', #or categorica ..
发布时间:2021-09-05 20:00:45 其他开发

如何使用使用 tf.where() 忽略某些元素的 MSE 创建损失函数

这是目前的功能.在这里,它从 MSE 中删除 y_true 小于阈值(此处为 0.1)的任何值. def my_loss(y_true,y_pred):损失 = tf.square(y_true-y_pred)# 如果任何 y_true 小于阈值(比如 0.1)# 元素从loss中移除,不影响MSE损失 = tf.where(y_true 这个可以编译,但是网络从来没有学会很好地预测 0.相反 ..
发布时间:2021-09-05 20:00:12 其他开发

tf.GradientTape 为梯度返回 None

我正在使用 tf.GradientTape().gradient() 来计算 代表点,其中可用于计算“影响"给定测试示例上的给定训练示例.给定测试示例 x_t 和训练示例 x_i 的表示点计算为其特征表示的点积,f_t 和 f_i,乘以权重alpha_i. 注意:这种方法的细节对于理解问题不是必需的,因为主要问题是让梯度胶带起作用.话虽如此,我已经为感兴趣的任何人提供了以下一些细节的屏幕截图 ..
发布时间:2021-09-05 20:00:03 其他开发

如何在 tensorflow (keras) 中使用 GPU 和 CPU?

我正在使用 tf.keras 运行内存密集型(估计约为 6GB)GAN 模型,我的 GPU 似乎无法处理(预测失败,仅报告 nans).有没有办法用系统内存支持我的 4GB GPU 内存?或者一种在 GPU 和 CPU 之间共享计算工作的方法? 我的规格: 操作系统:Windows 10 64 位 GPU:Geforce GTX 960 (4GB) CPU:英特尔至强-E3 123 ..
发布时间:2021-09-05 19:59:42 其他开发

如何在 Keras 中实现这种深度学习模型?

检查 replit 中的源代码. 我有 3 个班级(A、B 和 C). 我有 6 个功能: train_x = [[ 6.442 6.338 7.027 8.789 10.009 12.566][ 6.338 7.027 5.338 10.009 8.122 11.217][ 7.027 5.338 5.335 8.122 5.537 6.408][ 5.338 5.335 5.65 ..
发布时间:2021-09-05 19:52:41 其他开发

无法使用 tensorflow 2.0.0 beta1 保存模型

我已经尝试了文档中描述的所有选项,但没有一个允许我在 tensorflow 2.0.0 beta1 中保存我的模型.我还尝试升级到(同样不稳定的)TF2-RC,但这甚至破坏了我在测试版中工作的代码,所以我现在很快回滚到测试版. 查看下面的最小复制代码. 我尝试过的: model.save("mymodel.h5") NotImplementedError:将模型保存为 HDF5 ..
发布时间:2021-09-05 19:40:47 其他开发

如何在张量流中运行 model.fit() 期间输出一些数据?

我想在 model.fit() 运行期间而不是之前打印张量的值和/或形状.在 PyTorch 中,我可以将 print(input.shape) 语句放入 model.forward() 函数中. TensorFlow 中是否有类似的东西? 解决方案 您可以将 callback 对象传递给 model.fit() 方法,然后在拟合过程中的不同阶段. https://www.te ..
发布时间:2021-09-05 19:37:02 其他开发

设置表示为 Keras 序列模型的 RNN 的初始状态

如何设置下面构造的循环神经网络rnn的初始状态? from tensorflow.keras.layers import Dense, SimpleRNN从 tensorflow.keras.models 导入顺序rnn = 顺序([简单RNN(3),密集(1)]) 我想在使用 model.fit 拟合模型之前指定第一层的初始状态. 解决方案 根据 tf.keras.layers.RN ..
发布时间:2021-09-05 19:33:35 其他开发

张量流 - LSTM - &#39;Tensor&#39;对象不可迭代

嗨,我正在为 lstm rnn 单元使用以下函数. def LSTM_RNN(_X, _istate, _weights, _biases):# 函数从给定参数返回一个张量流 LSTM (RNN) 人工神经网络.# 注意,这个笔记本的一些代码是从一个稍微不同的# 在另一个数据集上使用的 RNN 架构:# https://tensorhub.com/aymericdamien/tensorflow ..
发布时间:2021-09-05 19:28:00 其他开发

带有activity_regularizer的Keras每次迭代都会更新

我正在使用 Keras 构建一个简单的神经网络.它具有活动正则化,因此唯一隐藏层的输出被迫具有较小的值.代码如下: 将 numpy 导入为 np导入数学进口keras从 keras.models 导入模型,顺序从 keras.layers 导入输入、密集、激活从 keras 导入正则化器从 keras 导入后端为 Ka=1def my_regularizer(输入):mean=K.mean((输 ..
发布时间:2021-09-05 19:17:59 其他开发

训练 Keras 模型会产生多个优化器错误

所以我需要使用我自己的数据集重新训练 Tiny YOLO.我使用的模型可以在这里找到:keras-yolo3. 我开始训练时遇到了多个优化器错误,添加了错误代码以防止混淆.我注意到即使它应该使用 GPU,训练也会变慢,经过深入研究后,我发现这不是使用 GPU 进行训练.我应该注意,在我用于学习训练的另一个较小的网络上使用 GPU,所以从那一边一切都正确设置,并且当我进行训练时,它们没有这种类 ..
发布时间:2021-09-05 19:11:14 其他开发

如何在张量流中实现提前停止

def train():# 模型模型 = 模型()# 损失,优化器global_step = tf.Variable(1, dtype=tf.int32, trainable=False, name='global_step')loss_fn = model.loss()优化器 = tf.train.AdamOptimizer(learning_rate=TrainConfig.LR).minim ..
发布时间:2021-09-05 19:08:40 其他开发

在 Keras 序列模型中使用哪个损失函数

我使用的是 Keras 序列模型,预测输出的形状为 (1, 5)(5 个特征). 我有一个准确度指标定义如下: 对于 N 个预测,模型的准确度将是预测样本的百分比,使得:对于每个预测及其各自的真实标签,所有特征的差异不超过 10. 例如,如果 y_i = [1, 2, 3, 4, 5] 和 ypred_i = [1, 2, 3, 4, 16] 不是自最后一个特征以来的匹配差异为 ..
发布时间:2021-09-05 19:05:15 其他开发

Keras AdditiveAttention 层的输出形状

尝试使用 Keras 中的 AdditiveAttention 层.关于 tensorflow 教程中层的手动实现 https://www.tensorflow.org/tutorials/text/nmt_with_attention 将 tensorflow 导入为 tf类 BahdanauAttention(tf.keras.layers.Layer):def __init__(self ..
发布时间:2021-09-05 19:02:33 其他开发

改变keras RELU激活函数的阈值

我正在尝试在构建我的神经网络时更改激活函数 Relu 的阈值. 所以,最初的代码是下面写的,其中 relu 阈值的默认值为 0. model = Sequential([Dense(n_inputs, input_shape=(n_inputs, ), activation = 'relu'),Dense(32, activation = 'relu'),密集(2,激活=“softmax" ..
发布时间:2021-09-05 18:52:15 其他开发

torch.flatten() 和 nn.Flatten() 的区别

torch.flatten() 和 torch.nn.Flatten() 有什么区别? 解决方案 Flattening 在 PyTorch 中以三种形式提供 作为张量方法(oop 风格)torch.Tensor.flatten 直接应用于张量:x.flatten(). 作为函数(函数形式)torch.flatten 应用为:torch.flatten(x). 作为一个模块 ..
发布时间:2021-09-05 18:34:04 其他开发