deep-learning相关内容

批量LVS时间LSTM

当输入为批处理而非时间为主时,RNN是否学习不同的依赖关系模式? 解决方案 (编辑:对不起,我最初的论点是为什么它合理,但我意识到它没有 >,所以这有点过时.) 我还没有找到背后的TF-group推理,但是是 没有在运算上是有意义的,因为ops是用C ++编写的. 直观地讲,我们希望在同一时间步上将同一序列中的不同特征融合(相乘/相加等).批处理/序列可以并行执行,因此不能同时 ..
发布时间:2020-05-04 06:22:10 Python

RNN/LSTM深度学习模型?

我正在尝试为二进制分类0或1建立RNN/LSTM模型 我的数据集样本(患者数,以毫秒/秒为单位的时间,X Y和Z的归一化,峰度,偏度,俯仰,横摇和偏航,标签). 1,15,-0.248010047716,0.00378335508419,-0.0152548459993,-86.3738760481,0.872322164158,-3.51314800063,0 1,31,-0.24 ..
发布时间:2020-05-04 06:20:57 其他开发

用于LSTM-RNN训练的填充时间序列子序列

我有一个时间序列数据集,可用作LSTM-RNN的动作预期输入.该时间序列包含30 fps的5秒时间(即150个数据点),该数据代表了面部特征的位置/运动. 我从我的数据集中采样了其他长度较小的子序列,以便在数据集中增加冗余并减少过度拟合.在这种情况下,我知道了子序列的开始和结束帧. 为了批量训练模型,所有时间序列都必须具有相同的长度,并且根据文献中的许多论文,填充不应影响网络的性能. ..

TensorFlow中的暹罗神经网络

我正在尝试在TensorFlow中实现暹罗神经网络,但是我在Internet上找不到任何有效的示例(请参阅 我要构建的体系结构将由两个共享权重的LSTM组成,并且仅在网络末端连接. 我的问题是:如何在TensorFlow中建立两个不同的神经网络,以共享它们的权重(并列权重),以及如何在最后连接它们? 谢谢:) 编辑:我实现了一个简单而有效的暹罗网络示例,解决方案 使用tf.la ..
发布时间:2020-05-04 06:20:28 其他开发

PyTorch-contiguous()

我正在github上查看LSTM语言模型的示例contiguous()的作用,这在代码中多次发生. 例如,在代码输入的第74/75行中,创建了LSTM的目标序列. 数据(存储在ids中)为二维,其中第一维为批处理大小. for i in range(0, ids.size(1) - seq_length, seq_length): # Get batch inputs and ..
发布时间:2020-05-04 06:20:26 其他开发

在LSTM中使用tanh的直觉是什么

在LSTM网络(了解LSTM )中,为什么输入门和输出门使用tanh?这背后的直觉是什么? 这只是一个非线性变换? 如果是,我可以同时将其更改为另一个激活功能(例如ReLU)吗? 解决方案 Sigmoid专门用作LSTM中3个门(进,出,忘记)的门控功能,因为它输出的值介于0和1,它要么使整个闸门不流通,要么使信息流通不畅.另一方面,要克服消失的梯度问题,我们需要一个函数,该函数的二阶导数 ..

"hidden"和"hidden"之间有什么区别和“输出"在PyTorch LSTM中?

我在理解PyTorch的LSTM模块(以及类似的RNN和GRU)的文档时遇到了麻烦.关于输出,它说: 输出:输出(h_n,c_n) 输出(seq_len,batch,hidden_​​size * num_directions):张量,包含每个t的RNN的最后一层的输出特征(h_t).如果已给定torch.nn.utils.rnn.PackedSequence作为输入,则输出也将是打包 ..

用于Caffe的LSTM模块

有人知道对于Caffe是否存在一个不错的LSTM模块?我从russel91的github帐户中找到了一个帐户,但显然包含示例和说明的网页消失了(以前 http://apollo.deepmatter. io/->现在仅重定向到 github页面,其中没有示例或说明不再). 解决方案 我知道 Jeff Donahue 使用以下方法在LSTM模型上工作咖啡.在CVPR 2015期间,他还提供了 ..

铰链损耗函数梯度w.r.t.输入预测

对于一项作业,我必须同时实现铰链损耗及其偏导数计算功能.我得到了铰链损失函数本身,但是我很难理解如何计算其偏导数w.r.t.预测输入.我尝试了不同的方法,但是没有一个起作用. 任何帮助,提示和建议将不胜感激! 这里是铰链损失函数本身的解析表达式: 这是我的Hinge损失函数的实现: def hinge_forward(target_pred, target_true): ..

尝试自定义损失函数时出现错误

我正在尝试为我的深度学习模型创建自定义损失函数,但遇到错误. 我将在此处给出一个代码示例,该代码不是我想要使用的代码,但是如果我了解如何使这个小损失函数起作用,那么我认为我将能够使我的长损失函数起作用.因此,我几乎在寻求帮助以使下一个功能正常工作. model.compile(optimizer='rmsprop',loss=try_loss(pic_try), metrics ..
发布时间:2020-05-04 06:01:22 其他开发

如何使用神经网络同时预测期望值和方差?

我想使用神经网络来预测标量值,该标量值是输入值和随机值(我假设是高斯分布)的函数之和,方差也取决于输入值.现在,我想拥有一个具有两个输出的神经网络-第一个输出应近似确定部分-函数,第二个输出应近似随机部分的方差,具体取决于输入值.训练这样的网络需要什么损失功能? (如果有一个Tensorflow的Python示例会很好,但是我也对通用答案感兴趣.我也不太清楚如何用Python代码编写类似的东 ..
发布时间:2020-05-04 06:01:12 Python

计算外部损失函数,但计算张量流中的梯度?

我想训练一个只能从外部计算损失函数的模型.因此,我获取了最后一层的输出,在外部计算了一些值,并希望使用它来更新我的网络.我可以在tensorflow中实现这样的设置吗? 解决方案 是的,您必须在图中定义最小化的损失,例如: loss = Network.loss(input_tensor) loss_2 = out_function(loss) 然后只需指定: train_ ..
发布时间:2020-05-04 06:01:08 其他开发

在温度预测中,哪个损失函数比MSE更好?

我的特征向量大小为1x4098.每个特征向量都对应一个浮点数(温度).在训练中,我有10.000个样本.因此,我的训练集大小为10000x4098,标签为10000x1.我想使用线性回归模型从训练数据中预测温度.我正在使用MSE丢失的3个隐藏层(512、128、32).但是,使用Tensorflow只能获得80%的精度.您能建议我其他损失函数以获得更好的性能吗? 解决方案 让我对损失函数的 ..

是使用Logistic回归进行情感分析时获得肯定或否定程度的一种方法

我一直在跟踪有关使用Logistic回归进行情感分析的示例,其中预测结果仅给出1或0分别给出正面或负面的情绪. 我的挑战是我想将给定的用户输入分类为四个类别(非常好,好,平均,差)之一,但是我的预测结果每次都是1或0. 下面是到目前为止我的代码示例 from sklearn.feature_extraction.text import CountVectorizer from v ..

需要帮助来了解SigmoidCrossEntropyLossLayer的Caffe代码,以解决多标签丢失问题

在了解Caffe函数 SigmoidCrossEntropyLossLayer 时,我需要帮助,这是逻辑激活的交叉熵错误. 基本上,具有N个独立目标的单个示例的交叉熵误差表示为: - sum-over-N( t[i] * log(x[i]) + (1 - t[i]) * log(1 - x[i] ) 其中,t是目标,为0或1,而x为输出,由i索引. x当然需要进行物流激活. ..